Métodos e técnicas para otimizar a recuperação da informação. Problemas modernos de ciência e educação

A Internet oferece ao usuário mais via rápida busca de informações em comparação com as tradicionais. A busca de informações na Internet pode ser realizada por meio de diversos métodos, que diferem significativamente tanto na eficiência e qualidade da busca, quanto no tipo de informação recuperada. Dependendo das metas e objetivos métodos de busca pesquisa de informações na Internet são usados ​​individualmente ou em combinação entre si.

1. Recurso direto de acordo com IL. O método mais simples search, que implica a presença de um endereço e se resume a um cliente entrar em contato com um servidor de um determinado tipo, ou seja, enviar uma solicitação usando um determinado protocolo.

Normalmente, esse processo começa após inserir o endereço na linha correspondente do programa do navegador ou selecionar a descrição do endereço na janela do navegador.

Ao se referir diretamente ao endereço, você pode usar a abreviação do IL padrão - omitir os elementos padrão. Por exemplo, omita o nome do protocolo (o protocolo é selecionado pelo domínio de nível inferior ou o serviço padrão é usado); omita o nome do arquivo padrão (dependendo da configuração do servidor) e o último caractere "/"; omita o nome do servidor e use o endereçamento de diretório relativo.

Observe que este método é a base para o funcionamento de tecnologias mais complexas, pois como resultado de processos complexos, tudo se resume a uma chamada direta ao endereço IL.

2. Usando um conjunto de links. A maioria dos servidores que apresentam materiais gerais de hipertexto também oferecem links para outros servidores (contêm endereços 1JB de outros recursos). Essa forma de buscar informações é chamada de busca de conjuntos de links. Como todos os sites no espaço VWV estão de fato conectados, as informações podem ser pesquisadas visualizando sequencialmente as páginas vinculadas usando um navegador.

Deve-se notar que os administradores de rede não estabelecem o objetivo de colocar um conjunto completo de links nos principais tópicos de seu servidor e monitorar constantemente sua correção, portanto, esse método de pesquisa não fornece integridade e não garante a confiabilidade da obtenção de informações . Embora este seja completamente método manual pesquisa parece um completo anacronismo em uma rede contendo mais de 60 milhões de nós, a visualização "manual" de páginas da Web muitas vezes acaba sendo a única possível nos estágios finais da recuperação da informação, quando a "escavação" mecânica dá lugar a uma análise mais profunda . O uso de diretórios, listas de classificados e de assuntos e todo tipo de diretórios pequenos também se aplica a esse tipo de pesquisa.

3. Uso de mecanismos de busca especializados: motores de busca, diretórios de recursos, metabusca, busca de pessoas, endereços de teleconferência, busca em arquivos, etc.

A ideia principal dos buscadores (servidores) é criar um banco de dados de palavras encontradas em documentos Magnet, no qual, para cada palavra, será armazenada uma lista de documentos contendo essa palavra. A pesquisa é realizada no conteúdo dos documentos. Os documentos que chegam ao SheteG são cadastrados nos buscadores com a ajuda de programas especiais e não requerem intervenção humana. Com base nisso, recebemos informações completas, mas não confiáveis.

Apesar da abundância de palavras e formas de palavras nas línguas naturais, a maioria delas é usada com pouca frequência, o que foi percebido pelo linguista Zipf no final dos anos 40. século 20 Além disso, as palavras mais comuns são conjunções, preposições e artigos, ou seja, palavras completamente inúteis na busca de informações. Como resultado, o dicionário do maior mecanismo de busca, 11d:epe1 DAYAU^a, tem apenas alguns gigabytes de tamanho. Como todas as unidades morfológicas do dicionário estão ordenadas, a busca pela palavra desejada pode ser realizada sem navegação sequencial. A presença de listas de documentos em que a palavra de pesquisa ocorre permite que o mecanismo de pesquisa realize operações nessas listas: sua fusão, interseção ou subtração.

Uma consulta a um mecanismo de pesquisa pode ser de dois tipos: simples e complexa.

No consulta simples uma palavra ou um conjunto de palavras não separadas por nenhum caractere é indicada. Com uma consulta complexa, as palavras podem ser separadas umas das outras Operadores lógicos e suas combinações. Esses operadores têm precedência.

A exatidão e a quantidade de documentos emitidos pelo buscador dependem de como o pedido é formulado, seja ele simples ou complexo.

Muitos mecanismos de pesquisa usam diretórios de assuntos para pesquisar ou coexistem com eles. Portanto, pode ser bastante difícil classificar os mecanismos de pesquisa. A maioria deles pode ser atribuída igualmente a motores de busca e catálogos de classificação.

Os motores de busca mais famosos incluem o seguinte: americano(AltaVista, Hot Bot, Lycos, Open Text, Mckinley, Excite, Cuiwww); russos(Yandex, Pesquisa, Aport, Tela, Rambler).

Os diretórios de recursos usam um modelo de banco de dados hierárquico (tipo árvore) e/ou de rede, pois qualquer recurso que tenha uma URL, descrição e outras informações está sujeito a uma determinada classificação - é chamado de classificador. As seções do classificador são chamadas de cabeçalhos. O análogo de biblioteca de um catálogo é um catálogo sistemático.

O classificador é desenvolvido e aprimorado por uma equipe de autores. Em seguida, é utilizado por outra equipe de especialistas chamados sistematizadores. Os sistematizadores, conhecendo o classificador, leem documentos e atribuem índices de classificação a eles, indicando a quais seções do classificador esses documentos correspondem.

Existem truques que facilitam a localização de informações usando diretórios. Essas técnicas são chamadas de referência e vinculação, e ambas são usadas por criadores de diretórios na Internet. As técnicas acima são usadas em uma situação em que um documento pode ser atribuído a uma das várias seções do classificador e o pesquisador pode não saber qual seção.

A referência é usada quando os criadores do classificador e sistematizadores são capazes de tomar uma decisão clara de classificar o documento para uma das seções do classificador, e o usuário, em busca deste documento, pode recorrer a outra seção. Então nesta outra seção é colocada uma referência (Cm.) para a seção do classificador que realmente contém informações sobre documentos desse tipo.

Por exemplo, informações sobre mapas de países podem ser colocadas nas seções "Ciência-Geografia-País", "Economia-Geografia-País", "Referências-Mapa-País". Fica decidido que os mapas dos países são colocados na segunda seção "Economia-Geografia-País", e as referências a ele são colocadas nas duas seções restantes. Esta técnica é usada ativamente no Yahoo!.

Link (Veja também)é usado em uma situação menos ambígua, quando mesmo os criadores do classificador e sistematizadores não são capazes de tomar uma decisão clara sobre a classificação de documentos para uma seção específica do classificador. É usado especialmente em diretórios que usam o modelo de banco de dados de rede.

Os seguintes catálogos de classificação são comuns: europeu(Web Amarela, Euroseek); americano(Yahoo!, Magellan, Infoseek, etc.); russos(WWW, Estrelas, Weblist, Rocit, Au).

A vantagem da metabusca sobre os mecanismos de busca e diretórios é que ela fornece uma única interface ou ponto de acesso aos índices da Internet.

Existem dois tipos de ferramentas de acesso múltiplo:

  • 1) serviços de acesso múltiplo de seus " páginas iniciais» fornecer um menu com uma variedade de ferramentas de pesquisa. A popularidade desses serviços se deve ao fato de que muitos mecanismos de pesquisa são orientados por menus. Eles permitem uma transição fácil de um mecanismo de pesquisa para outro sem a necessidade de lembrar URLs ou digitá-los no navegador. Serviços de acesso múltiplo mais populares Tudo em um(http://www.allonesearch.com); C/Rede(http://www.search.com); Detetive da Internet(http://isleuth.com);
  • 2) meta-índices, muitas vezes chamados de serviços de pesquisa multi ou integrados, fornecem um único formulário de pesquisa no qual o usuário insere consulta de pesquisa enviados para vários motores de busca ao mesmo tempo, e os resultados individuais são apresentados como uma única lista. Este tipo de serviço é valioso quando é necessária uma amostra máxima de documentos sobre um determinado assunto e quando o documento é único.

Outra vantagem do meta-índice é que os resultados da pesquisa de cada mecanismo de pesquisa são bastante exclusivos, ou seja, o meta-índice não retorna links duplicados.

A principal desvantagem deste mecanismo de pesquisa é que ele não permite que as propriedades individuais dos vários mecanismos de pesquisa sejam usadas.

Meta-índices mais populares beleza(http://www.beacoup.com); Desbravador(http://www.medialingua.ru/www/wwwsearc.htm).

Deve-se notar que a divisão entre esses dois serviços é muito vaga. Algumas das seções maiores oferecem acesso a mecanismos de pesquisa separados, bem como pesquisas de meta-índice.

Até agora, a busca por materiais principalmente de hipertexto foi considerada. No entanto, você também pode procurar outros recursos da Internet. Para isso, existem motores de busca especializados (que pesquisam apenas o mesmo tipo de recursos) e motores de busca "comuns" que oferecem características adicionais pesquisa de documentos que não sejam de hipertexto.

As pessoas pesquisam. Nenhuma lista ou diretório único de endereços E-mail, assim como não existe uma lista telefônica impressa única para o mundo inteiro. Existem vários serviços de referência comerciais e não comerciais, mas a maioria envolve uma determinada região ou disciplina. Eles são compilados vários métodos e pode ser montado por especial programas de computador de um post de um grupo de notícias da Internet ou lançado por indivíduos que não são necessariamente os proprietários dos endereços. Esses diretórios são frequentemente chamados de "páginas brancas" e incluem diretórios de e-mail e endereços postais, bem como números de telefone. Uma das maneiras mais confiáveis ​​de encontrar informações sobre contatos pessoais, se você conhece a organização à qual uma pessoa pertence, é acessar pagina inicial organizações. Outra maneira é usar diretórios pessoais.

Em decorrência do uso, o buscador deverá retornar a URL do endereço de e-mail (e-mail) da pessoa desejada.

Principais diretórios pessoais: Quem onde(http://www.whowhere.com); povo Yahu(http://yahoo.com/search/people); Quatro 11(http://www.four1l.com).

Não existem muitos motores de busca especializados que pesquisam URLs de conferências, em particular, este DejaNews(http://www.dejanews.com é o mecanismo de busca mais sofisticado em grupos de notícias (Usenet). Caracteriza-se por uma abundância de opções de busca avançada, filtros úteis para “limpar” o resultado, uma sintaxe de consulta formal-lógica e a capacidade de pesquisar arquivos.

Muitos motores de busca fornecem a capacidade de pesquisar conferências como servico adicional(Yahoo!, Alta Vista, Anzwers, Galaxy, Info Seek, etc.). Você pode entrar no modo de pesquisa de conferência usando o botão Usenet.

Pesquise em arquivos de arquivos. A Internet contém uma enorme quantidade de recursos. Uma grande parte deles são arquivos de arquivos em servidores FTP. Para procurá-los, são utilizados motores de busca especializados. O registro de arquivos ocorre com a ajuda de programas especiais e os nomes dos arquivos são indexados.

Alguns mecanismos de pesquisa não especializados também fornecem a capacidade de pesquisar arquivos de arquivos. Por exemplo, digitar search.ftp no AltaVista nos dará links para servidores especializados em encontrar arquivos em arquivos FTP. Como resultado do uso, o buscador deve retornar a URL do arquivo.

Mecanismos básicos de pesquisa em arquivos de arquivos: Archie(http://archie.de); Filez(http://www.filez.com); Pesquisa FFP(http://ftpsearch.city.ru).

1. Objetivo e classificação dos métodos de otimização de mecanismos de pesquisa

Devido à complexidade dos objetos de projeto, os critérios de qualidade e as limitações do problema de otimização paramétrica (1.5) são, via de regra, muito complicados para aplicar os métodos clássicos de encontrar um extremo. Portanto, na prática, a preferência é dada aos métodos de otimização de mecanismos de busca. Considere os principais estágios de qualquer método de pesquisa.

Os dados iniciais nos métodos de pesquisa são a precisão necessária do método e o ponto de partida da pesquisa X 0 .

Então, o valor do passo de busca h é selecionado, e de acordo com uma certa regra, novos pontos X k +1 são obtidos do ponto anterior X k , em k = 0,1,2, ... Obtenção de novos pontos continua até que a condição para encerrar a pesquisa seja atendida. O último ponto de busca é considerado a solução do problema de otimização. Todos os pontos de busca compõem a trajetória de busca.

Os métodos de busca podem diferir uns dos outros no procedimento de escolha do tamanho do passo h (o passo pode ser o mesmo em todas as iterações do método ou calculado em cada iteração), no algoritmo para obter um novo ponto e na condição para terminar o procurar.

Para métodos que usam um tamanho de passo constante, h deve ser escolhido muito menos que a precisão h » Öe). Se, com o tamanho do passo h escolhido, não for possível obter uma solução com a precisão necessária, então é necessário reduzir o tamanho do passo e continuar a busca a partir do último ponto da trajetória disponível.

O seguinte é comumente usado como condições para encerrar a pesquisa:

todos os pontos de busca vizinhos são piores que o anterior;

çФ(X k +1) - Ф(X k)ç£ e, ou seja, os valores da função objetivo Ф(Х) em pontos vizinhos (novos e anteriores) diferem entre si por não mais do que o necessário precisão e;

ou seja, todas as derivadas parciais no novo ponto de busca são praticamente iguais a 0 ou diferem de 0 por um valor que não exceda a precisão especificada e.

O algoritmo para obter um novo ponto de busca X k +1 do ponto anterior X k é diferente para cada um dos métodos de busca, mas qualquer novo ponto de busca não deve ser pior que o anterior: se o problema de otimização é o problema de encontrar um mínimo, então Ф(Х k +1) £ Ф (Xk).

Os métodos de otimização de mecanismos de busca geralmente são classificados de acordo com a ordem da derivada da função objetivo usada para obter novos pontos. Portanto, nos métodos de busca da ordem zero, o cálculo de derivadas não é necessário, mas a própria função Ф(Х) é suficiente. Os métodos de busca de primeira ordem usam derivadas parciais de primeira, enquanto os métodos de busca de segunda ordem usam uma matriz de derivadas de segunda (matriz Hessiana).

Quanto maior a ordem das derivadas, mais justificada é a escolha de um novo ponto de busca e menor o número de iterações do método. Mas, ao mesmo tempo, a complexidade de cada iteração aumenta devido à necessidade de cálculo numérico das derivadas.

A eficiência do método de busca é determinada pelo número de iterações e pelo número de cálculos da função objetivo Ф(Х) em cada iteração do método (N). Vamos considerar os métodos de busca mais comuns, organizando-os em ordem decrescente do número de iterações.

Para métodos de busca de ordem zero, o seguinte é verdadeiro: no método de busca aleatória, é impossível prever antecipadamente o número de cálculos de Ф(X) em uma iteração N, e no método de descida coordenada N £ 2 ×n, onde n é o número de parâmetros controlados X = (x1, x2. ,…,xn).

Para métodos de busca de primeira ordem, as seguintes estimativas são válidas: no método do gradiente com passo constante N=2×n; no método do gradiente com divisão em etapas N = 2×n + n 1 , onde n 1 é o número de cálculos Ф(Х) necessários para verificar a condição de divisão em etapas; no método de descida mais íngreme, N=2×n+n 2 , onde n 2 é o número de cálculos de F(X) necessários para calcular o tamanho ideal do passo; e no método Davidon-Fletcher-Powell (DFP) N = 2× n + n 3 , onde n 3 é o número de cálculos F(X) necessários para calcular a matriz aproximando a matriz Hessiana (para os valores n 1 , n 2 , n 3 a relação n 1< n 2 << n 3).

E, finalmente, no método de segunda ordem - método de Newton N = 3×n 2 . Ao obter essas estimativas, assume-se que as derivadas são calculadas aproximadamente usando as fórmulas de diferenças finitas / 6 /:


ou seja, para calcular a derivada de primeira ordem, você precisa conhecer dois valores da função objetivo Ф(Х) em pontos vizinhos e, para a derivada de segunda ordem, você precisa conhecer os valores da função em três pontos.

Na prática, o método de descida mais íngreme e o método DFP encontraram ampla aplicação, pois métodos com proporção ideal o número de iterações e sua complexidade.


2. Métodos de pesquisa de ordem zero

2.1. Método de pesquisa aleatória

No método de busca aleatória, os dados iniciais são a precisão requerida do método e, o ponto inicial da busca Õ 0 = (x1 0 , x2.0 ,…,xn 0) e o valor da etapa de busca h. A busca por novos pontos é feita em uma direção aleatória, na qual o passo dado h é adiado (Fig. 2.1), obtendo assim um ponto de teste X ^ e verificando se o ponto de teste é melhor que o ponto de busca anterior. Para o problema de encontrar o mínimo, isso significa que

Ф(Х ^) £ Ф(Х k), k = 0,1,2… (2,4)

Se a condição (2.4) for satisfeita, então o ponto de teste é incluído na trajetória de busca Х k +1 = Х ^ . Caso contrário, o ponto de teste é excluído da consideração e uma nova direção aleatória é selecionada a partir do ponto X k , k = 0,1,2,.

Apesar da simplicidade este método, sua principal desvantagem é o fato de não se saber de antemão quantas direções aleatórias serão necessárias para obter um novo ponto da trajetória de busca X k +1 , o que torna o custo de uma iteração muito grande. Além disso, como as informações sobre a função objetivo Ф(Х) não são usadas na escolha da direção da busca, o número de iterações no método de busca aleatória é muito grande.

Nesse sentido, o método de busca aleatória é utilizado para estudar objetos de projeto pouco estudados e para sair da zona de atração do mínimo local ao buscar o extremo global da função objetivo /6/.

2.2. Método de descida coordenada

Ao contrário do método de busca aleatória, no método de descida por coordenadas, as direções paralelas aos eixos das coordenadas são escolhidas como direções de busca possíveis, e o movimento é possível tanto no sentido de aumentar quanto de diminuir o valor da coordenada.

Os dados iniciais no método de descida de coordenadas são o tamanho do passo he o ponto inicial da busca Õ 0 = (x1 0 , x2. 0 ,…,xn 0). Iniciamos o movimento a partir do ponto X 0 ao longo do eixo x1 no sentido de aumentar a coordenada. Vamos obter um ponto de teste Х ^ com coordenadas (x1 0 +h, x2 0 ,…,xn 0), para k = 0.

Vamos comparar o valor da função Ф(Х ^) com o valor da função no ponto de pesquisa anterior Х k . Se Ф(Х ^) £ Ф(Х k) (assumimos que é necessário resolver o problema de minimizar a função objetivo Ф(Х)), então o ponto de teste é incluído na trajetória de busca (Х k +1 = ^ ).

Caso contrário, o ponto de teste é excluído da consideração e um novo ponto de teste é obtido movendo-se ao longo do eixo x1 na direção da diminuição da coordenada. Obtemos um ponto de teste Х ^ = (x1 k -h, x2. k ,…,xn k). Verificamos se Ф(Х ^) > Ф(Х k), então continuamos a nos mover ao longo do eixo x 2 na direção de aumentar a coordenada. Obtemos um ponto de teste Х ^ = (x1 k , x2. k +h,…,xn k), etc. Ao construir uma trajetória de busca, o movimento repetido ao longo dos pontos incluídos na trajetória de busca é proibido. A obtenção de novos pontos no método de descida de coordenadas continua até que um ponto X k seja obtido, para o qual todos os pontos de teste 2×n vizinhos (em todas as direções x1, x2.,…,xn no sentido de aumentar e diminuir o valor de cada coordenada) será pior, ou seja, Ф(Х ^) > Ф(Х k). Então a busca pára e o último ponto da trajetória de busca Х* = Х k é escolhido como o ponto mínimo.


3. Métodos de pesquisa de primeira ordem

3.1. A estrutura do método de pesquisa de gradiente

Nos métodos de busca de primeira ordem, o vetor gradiente da função objetivo grad (Ф(Х k)) é escolhido como a direção da busca pelo máximo da função objetivo Ф(Х), e o vetor anti-gradiente - grad (Ф(Х k)) é escolhido para procurar o mínimo. Neste caso, a propriedade do vetor gradiente é usada para indicar a direção da mudança mais rápida na função:


Para estudar métodos de busca de primeira ordem, a seguinte propriedade também é importante: o vetor gradiente grad (Ф(Х k)) é direcionado ao longo da normal à linha de nível da função Ф(Х) no ponto X k (veja a Fig. 2.4). As linhas de nível são curvas nas quais a função assume um valor constante (F(X) = const).

Neste capítulo, consideraremos 5 modificações do método do gradiente:

método gradiente com passo constante,

método gradiente com divisão de etapas,

método de descida mais íngreme,

Método Davidon-Fletcher-Powell,

método adaptativo de dois níveis.

3.2. Método gradiente com passo constante

No método do gradiente com passo constante, os dados iniciais são a precisão requerida e, o ponto inicial da busca X 0 e o passo de busca h.

O recebimento de novos pontos é feito de acordo com a fórmula.

Motor de Otimização de Buscaé um conjunto de medidas para aumentar as posições de sites ou suas páginas individuais nos resultados de pesquisa motores de busca.

As principais ferramentas de otimização de mecanismos de busca são:

    programação,

    marketing,

    métodos especiais de trabalhar com conteúdo.

Na maioria das vezes, uma posição mais alta do site nos resultados da pesquisa traz mais usuários interessados ​​ao site. Ao analisar a eficácia da otimização do mecanismo de pesquisa, o custo de um visitante-alvo é determinado, levando em consideração o tempo que o site leva para as posições especificadas, e o número de usuários que permanecem no site e realizam quaisquer ações também é levado em consideração .

A essência da otimização de mecanismos de busca é criar páginas cujo conteúdo seja conveniente tanto para leitura pelo usuário quanto para indexação por robôs de busca. O mecanismo de pesquisa insere páginas otimizadas em seu banco de dados de tal forma que, quando um usuário consulta palavras-chave, o site é colocado no topo dos resultados da pesquisa. a probabilidade de um usuário visitar o site aumenta. Portanto, pelo contrário, se a otimização não foi realizada, a classificação do site no resultado da pesquisa será baixa (longe de estar na primeira página) e a probabilidade de o usuário visitar esse site é mínima.

Não é incomum que os robôs dos mecanismos de pesquisa não consigam ler uma página da web. Este site não aparece de jeito nenhum. Procurar Resultados, e a probabilidade de que os visitantes o encontrem tendem a zero.

O principal objetivo da otimização de mecanismos de pesquisa é aumentar a posição do site nos resultados dos mecanismos de pesquisa. Para isso, é necessário analisar métodos existentes otimização e identificar o mais eficaz entre eles.

Métodos de otimização de mecanismos de pesquisa desenvolvido tendo em conta os princípios básicos dos sistemas de recuperação de informação. Portanto, antes de tudo, é necessário avaliar os parâmetros do site pelos quais os mecanismos de pesquisa calculam sua relevância, a saber:

    densidade de palavras-chave (algoritmos modernos de mecanismos de pesquisa analisam o texto e filtram as páginas nas quais palavras-chave ocorrem com muita frequência)

    índice de citações do site (a propósito, a rede oferece muitas ferramentas para aumentar a citação do site, ou seja, você pode simplesmente comprar um tick), que depende da autoridade e do número de recursos da web que vinculam ao site,

    organização de links de sites cujos tópicos são idênticos aos do site que está sendo otimizado.

Assim, todos os fatores que afetam a posição do site na página de resultados de pesquisa do sistema podem ser divididos em internos e externos. Assim, a otimização requer um trabalho com fatores externos e internos: alinhar o texto nas páginas com principais consultas; melhorar a quantidade e a qualidade do conteúdo do site; desenho estilístico do texto, etc.

Métodos de otimização de mecanismos de busca. A maioria dos especialistas utiliza a otimização para motores de busca sem recorrer a métodos inescrupulosos e proibidos, o que implica um conjunto de medidas para aumentar o tráfego do website, que se baseia numa análise do comportamento dos visitantes alvo.

O estudo realizado no trabalho possibilitou identificar os métodos mais eficazes de otimização de mecanismos de busca:

    aumentar a visibilidade do site pelos robôs dos motores de busca;

    melhorar a conveniência do site para os visitantes;

    melhorar o conteúdo do site;

    análise de consultas relacionadas ao site promovido e seus títulos;

    procure sites relacionados para criar programas de afiliados e trocar links.

A análise dos métodos mais comuns de otimização de mecanismos de pesquisa internos, como:

    seleção e posicionamento no código do site de metatags contendo Pequena descrição conteúdo do site; esse método permite destacar palavras-chave e frases para as quais o site que está sendo otimizado deve ser encontrado pelos mecanismos de pesquisa,

    o uso de “URLs amigáveis”, o que torna o site conveniente não apenas para os usuários, mas também para os mecanismos de pesquisa que levarão em consideração o tema da página,

    otimização de textos no site, que é garantir que os textos correspondam às meta tags. O texto deve conter palavras designadas como palavras-chave em metatags. Ao mesmo tempo, não se esqueça de que uma superabundância de palavras-chave no texto pode causar danos. Em primeiro lugar, o texto pode tornar-se simplesmente ilegível. Além disso, os mecanismos de pesquisa podem considerar isso como spam. Também é possível aumentar o “peso” da palavra no texto através do uso de elementos de formatação.

Devido à complexidade e pouco conhecimento dos objetos de projeto, tanto os critérios de qualidade quanto as limitações do problema de otimização paramétrica são, via de regra, muito complicados para a aplicação de métodos clássicos para encontrar um extremo. Portanto, na prática, a preferência é dada aos métodos de otimização de mecanismos de busca. Considerar as principais etapas de qualquer método de pesquisa.

Os dados iniciais nos métodos de pesquisa são a precisão necessária do método e e o ponto de partida da pesquisa X 0 .

Em seguida, o valor da etapa de pesquisa é selecionado h, e de acordo com alguma regra, novos pontos são obtidos X k +1 pelo ponto anterior X k no k= 0, 1, 2, … A obtenção de novos pontos continua até que a condição de término da busca seja satisfeita. O último ponto de busca é considerado a solução do problema de otimização. Todos os pontos de busca compõem a trajetória de busca.

Os métodos de pesquisa diferem entre si no procedimento de seleção do tamanho do passo h(o passo pode ser o mesmo em todas as iterações do método ou calculado a cada iteração), o algoritmo para obtenção de um novo ponto e a condição para encerrar a busca.

Para métodos que usam um tamanho de passo constante, h muito menos precisão deve ser escolhida e. Se com o tamanho do passo selecionado h não conseguir obter uma solução com a precisão necessária, então você precisa reduzir o tamanho do passo e continuar a busca a partir do último ponto da trajetória disponível.

O seguinte é comumente usado como condições para encerrar a pesquisa:

1) todos os pontos de busca vizinhos são piores que o anterior;

2) c F(X k +1 )–Ф(X k ) ç £ e, ou seja, os valores da função objetivo F(X) em pontos vizinhos (novos e anteriores) diferem uns dos outros por não mais do que a precisão necessária e;

3) ,eu = 1, …, n, ou seja, todas as derivadas parciais no novo ponto de busca são praticamente iguais a 0, ou seja, diferem de 0 por um valor que não excede a precisão de e.

Algoritmo para obter um novo ponto de busca X k+1 no ponto anterior X k diferente para cada um dos métodos de busca, mas qualquer novo ponto de busca não deve ser pior que o anterior: se o problema de otimização é o problema de encontrar um mínimo, então F(X k +1 ) £ F(X k ).

Os métodos de otimização de mecanismos de busca geralmente são classificados de acordo com a ordem da derivada da função objetivo usada para obter novos pontos. Assim, em métodos de busca de ordem zero, não é necessário calcular derivadas, mas sim a própria função F(X). Os métodos de busca de primeira ordem usam derivadas parciais de primeira, enquanto os métodos de busca de segunda ordem usam uma matriz de derivadas de segunda (matriz Hessiana).

Quanto maior a ordem das derivadas, mais justificada é a escolha de um novo ponto de busca e menor o número de iterações do método. Mas, ao mesmo tempo, a complexidade de cada iteração devido à necessidade de cálculo numérico das derivadas.

A eficiência do método de busca é determinada pelo número de iterações e pelo número de cálculo da função objetivo F(X) a cada iteração do método.

Considerar os métodos de pesquisa mais comuns, organizando-os em ordem decrescente do número de iterações.

Para métodos de pesquisa de ordem zero o seguinte é verdade: no método de busca aleatória, é impossível prever o número de cálculos antecipadamente F(X) em uma iteração N, enquanto no método de descida coordenada N£2× n, Onde n- número de parâmetros controlados X = (x 1 , x 2 .,…, x n ).

Para métodos de pesquisa de primeira ordem as seguintes estimativas são válidas: no método do gradiente com um passo constante N = 2 × n; no método gradiente com divisão em etapas N=2 × n + n 1 , Onde n 1 - número de cálculos F(X), necessário verificar a condição de divisão do passo; no método de descida mais íngreme N = 2 × n + n 2 , Onde n 2 - número de cálculos F(X), necessário calcular o tamanho ideal do passo; e no método de Davidon - Fletcher - Powell (DFP) N = 2 × n + n 3 , Onde n 3 - número de cálculos F(X), necessário para calcular a matriz aproximando a matriz Hessiana (para as quantidades n 1 , n 2 , n 3 a proporção n 1 < n 2 < n 3 ).

E finalmente no método de segunda ordem- Método de Newton N = 3 × n 2 .

Ao obter essas estimativas, assume-se que as derivadas são calculadas aproximadamente usando fórmulas de diferenças finitas, ou seja, para calcular a derivada de primeira ordem, são necessários dois valores da função objetivo F(X), e para a segunda derivada, os valores da função em três pontos.

Na prática, o método de descida mais íngreme e o método DFP encontraram ampla aplicação como métodos com uma proporção ideal do número de iterações e sua complexidade.

Vamos começar a considerar os métodos de busca de ordem zero. No método de busca aleatória, os dados iniciais são a precisão exigida do método e, o ponto de partida da busca X 0 = (x 1 0 , x 2 0 , …, x n 0 ) e pesquisar o tamanho do passo h.

A busca por novos pontos é realizada em uma direção aleatória, na qual o passo dado é adiado h, obtendo assim um ponto de teste e verificar se o ponto de teste é melhor que o ponto de busca anterior. Para o problema de busca mínima, isso significa que:

(6.19)

Se esta condição satisfeito, então o ponto de teste é incluído na trajetória de busca (
). Caso contrário, o ponto de teste é excluído da consideração e uma nova direção aleatória é selecionada a partir do ponto X k , k= 0, 1, 2, ... (Fig. 6.3).

X k +1

F(X)

Apesar da simplicidade deste método, sua principal desvantagem é o fato de não se saber de antemão quantas direções aleatórias serão necessárias para obter um novo ponto da trajetória de busca. X k +1 , o que torna o custo de uma iteração muito alto.

Arroz. 6.3. Para o método de busca aleatória

Além disso, como a escolha da direção de busca não utiliza informações sobre a função objetivo F(X), o número de iterações no método de busca aleatória é muito grande.

Nesse sentido, o método de busca aleatória é usado para estudar objetos de projeto pouco estudados e para sair da zona de atração de um mínimo local ao procurar um extremo global da função objetivo.

Ao contrário do método de busca aleatória, no método de descida por coordenadas, as direções paralelas aos eixos das coordenadas são escolhidas como direções de busca possíveis, e o movimento é possível tanto no sentido de aumentar quanto de diminuir o valor da coordenada.

Os dados iniciais no método de descida de coordenadas são o tamanho do passo h e o ponto de partida da pesquisa X 0 = (x 1 0 , x 2 . 0 ,…, x n 0 ) . Começamos o movimento a partir do ponto X 0 ao longo do eixo x 1 na direção de coordenadas crescentes. Obtenha um ponto de teste
(x 1 k + h, x 2 k ,…, x n k), k= 0. Compare o valor da função F(X) com o valor da função no ponto de pesquisa anterior Õ k .

Se
(assumimos que é necessário resolver o problema de minimização F(X), então o ponto de teste é incluído na trajetória de busca (
) .

Caso contrário, excluímos o ponto de teste da consideração e obtemos um novo ponto de teste movendo ao longo do eixo x 1 no sentido de coordenadas decrescentes. Obtenha um ponto de teste
(x 1 k h, x 2 k ,…, x n k). Nós verificamos se
, então continuamos a nos mover ao longo do eixo x 2 na direção de aumentar a coordenada. Obtenha um ponto de teste
(x 1 k + h, x 2 k ,…, x n k), etc

Ao construir uma trajetória de busca, o movimento repetido ao longo dos pontos incluídos na trajetória de busca é proibido.

A obtenção de novos pontos no método de descida de coordenadas continua até que um ponto X k seja obtido, para o qual todos os vizinhos 2× n pontos de teste (em todas as direções x 1 , x 2 , …, x n no sentido de aumentar e diminuir o valor da coordenada) será pior, ou seja
. Então a busca para e o último ponto da trajetória de busca é escolhido como o ponto mínimo X*= X k .

Considere o trabalho do método de descida por coordenadas usando um exemplo (Fig. 2.21): n = 2, X = (x 1 , x 2 ), F (x 1 , x 2 ) min, F(x 1 , x 2 ) = (x 1 – 1) 2 + (x 2 – 2) 2 , h= 1, X 0 = (0, 1) .

    Começamos a nos mover ao longo do eixo x 1 para cima

coordenadas. Obtenha o primeiro ponto de teste

(x 1 0 + h, x 2 0 ) = (1, 1), F() = (1-1) 2 + (1-2) 2 = 1,

F(X 0 ) = (0-1) 2 + (1-2) 2 = 2,

F( ) < Ф(Х 0 )  X 1 = (1, 1).

    x 1 a partir do ponto X 1

=(x 1 1 + h, x 2 1 ) = (2, 1), F( ) = (2-1) 2 + (1-2) 2 = 2,

F(X 1 ) = (1-1) 2 + (1-2) 2 = 1,

ou seja F( ) > Ф(Х 1 ) – o ponto de teste com coordenadas (2, 1) é excluído da consideração, e a busca pelo mínimo continua a partir do ponto X 1 .

    Continuamos a nos mover ao longo do eixo x 2 a partir do ponto X 1 na direção de coordenadas crescentes. Obtenha um ponto de teste

= (x 1 1 , x 2 1 + h) = (1, 2), F( ) = (1-1) 2 + (2-2) 2 = 0,

F(X 1 ) = (1-1) 2 + (1-2) 2 = 1,

F( ) < Ф(Х 1 ) X 2 = (1, 2).

    Continuamos a nos mover ao longo do eixo x 2 a partir do ponto X 2 na direção de coordenadas crescentes. Obtenha um ponto de teste

= (x 1 2 , x 2 2 + h) = (1, 3), F( ) = (1-1) 2 + (3-2) 2 = 1,

F(X 2 ) = (1-1) 2 + (2-2) 2 = 0,

ou seja F( ) > Ф(Х 2 ) – o ponto de teste com coordenadas (1, 3) é excluído da consideração e a busca pelo mínimo continua a partir do ponto X 2 .

5. Continuamos a nos mover ao longo do eixo x 1 a partir do ponto X 2 na direção de coordenadas crescentes. Obtenha um ponto de teste

= (x 1 2 + h, x 2 2 ) = (2, 2), F( ) = (2-1) 2 + (2-2) 2 =1,

F(X 2 ) = (1-1) 2 + (2 - 2) 2 = 0,

ou seja F(X ^ ) > Ф(Х 2 ) – o ponto de teste com coordenadas (2, 2) é excluído da consideração, e a busca pelo mínimo continua a partir do ponto X 2 .

6. Continuamos a nos mover ao longo do eixo x 1 a partir do ponto X 2 no sentido de coordenadas decrescentes. Obtenha um ponto de teste

= (x 1 2 - h, x 2 2 ) = (0, 2), F( ) = (0-1) 2 +(2-2) 2 = 1,

F(X 2 ) = (1-1) 2 + (2 - 2) 2 = 0,

ou seja F( ) > Ф(Х 2 ) – o ponto de teste com coordenadas (0, 2) é excluído da consideração e a busca pelo mínimo é concluída, pois para o ponto X 2 a condição para terminar a pesquisa é satisfeita. Ponto mínimo da função F(x 1 , x 2 ) = (x 1 – 1) 2 + (x 2 – 2) 2 é X * = X 2 .

Em métodos de busca de primeira ordem, como a direção de busca para o máximo da função objetivo F(X) o vetor gradiente da função objetivo é escolhido graduar(F(X k )) , para encontrar o mínimo - o vetor antigradiente - graduar(F(X k )) . Neste caso, a propriedade do vetor gradiente é usada para indicar a direção da mudança mais rápida na função:

.

Para o estudo de métodos de busca de primeira ordem, a seguinte propriedade também é importante: gradiente vetorial graduar(F(X k )) , é direcionado ao longo da normal à linha de nível da função F(X) no ponto X k .

Linhas de nível são curvas nas quais a função assume um valor constante ( F(X) = const).

DENTRO esta seção cinco modificações do método do gradiente são consideradas:

– método gradiente com um passo constante,

– método gradiente com divisão em etapas,

- método de descida mais íngreme,

– Método Davidon-Fletcher-Powell (DFP),

– método adaptativo de dois níveis.

No método do gradiente com um passo constante, os dados de entrada são a precisão necessária e, o ponto de partida da pesquisa X 0 e passo de pesquisa h.

X k+1 = X k – h× graduarF(X k ), k=0,1,2,… (6.20)

A fórmula (2.58) é aplicada se para a função F(X) você precisa encontrar o mínimo. Se o problema de otimização paramétrica é definido como um problema de encontrar o máximo, então para obter novos pontos no método do gradiente com um passo constante, a seguinte fórmula é usada:

X k+1 = X k +h× graduarF(X k ), k = 0, 1, 2, … (6.21)

Cada uma das fórmulas (6.20), (6.21) é uma relação vetorial que inclui n equações. Por exemplo, tendo em conta X k +1 = (x 1 k +1 , x 2 k +1 ,…, x n k +1 ), X k =(x 1 k , x 2 k ,…, x n k ) :

(6.22)

ou, em forma escalar,

(6.23)

Na forma geral (2.61) podemos escrever:

(6.24)

Como condição para encerrar a busca em todos os métodos de gradiente, como regra, utiliza-se a combinação de duas condições: ç F(X k +1 ) - F(X k ) ç £ e ou
para todos eu =1, …, n.

 Vamos considerar um exemplo de encontrar o mínimo pelo método do gradiente com um passo constante para a mesma função que no método de descida de coordenadas:

n = 2, X = (x 1 , x 2 ), =0.1,

F(x 1 , x 2 ) = (x 1 – 1) 2 + (x 2 – 2) 2 min, h = 0,3, X 0 = (0, 1).

    Vamos pegar um ponto X 1 pela fórmula (2.45):

F(X 1 ) = (0.6–1) 2 + (1.6–2) 2 = 0,32, Ф(X 0 ) = (0 –1) 2 + (1–2) 2 = 2.

F(X 1 ) - F(X 0 ) =1,68 > = 0,1  continuamos a busca.

    Vamos pegar um ponto X 2 pela fórmula (2.45):

F(X 2 ) = (0.84–1) 2 + (1.84–2) 2 = 0.05,

F(X 1 ) = (0,6 –1) 2 + (1,6–2) 2 = 0,32.

F(X 1 ) - F(X 0 ) =0,27 > = 0,1  continuamos a busca.

    Da mesma forma, obtemos X 3:

F(X 3 ) = (0.94–1) 2 + (1.94–2) 2 = 0.007,

F(X 3 ) = (0,84 –1) 2 + (1,84–2) 2 = 0,05.

Uma vez que a condição para encerrar a busca é satisfeita, encontrado X * = X 3 = (0,94, 1,94) com precisão = 0.1.

A trajetória de busca para este exemplo é mostrada na fig. 6.5.

A vantagem indiscutível dos métodos de gradiente é a ausência de custos extras para obtenção de pontos de teste, o que reduz o custo de uma iteração. Além disso, devido ao uso de uma direção de busca efetiva (vetor gradiente), o número de iterações é visivelmente reduzido em comparação com o método de descida de coordenadas.

No método gradiente, você pode reduzir um pouco o número de iterações se aprender a evitar situações em que várias etapas de pesquisa são executadas na mesma direção.

No método do gradiente com divisão de passos, o procedimento para selecionar o tamanho do passo em cada iteração é implementado da seguinte forma.

e, o ponto de partida da pesquisa X 0 h(usualmente h= 1). Novos pontos são obtidos pela fórmula:

X k+1 = X k – h k × graduarF(X k ), k=0,1,2,…, (6.25)

Onde h k- tamanho do passo k-ª iteração da pesquisa, quando h k condição deve ser atendida:

F(X k h k × graduarF(X k )) £ F(X k ) - h k ×½ graduarF(X k ) ½ 2 . (6.26)

Se o valor h ké tal que a desigualdade (2.64) não é satisfeita, então o passo é dividido até que esta condição seja satisfeita.

A divisão por etapas é realizada de acordo com a fórmula h k = h k ×a, onde 0< uma < 1.Такой подход позволяет сократить число итераций, но затраты на проведение одной итерации при этом несколько возрастают.

Isso facilita a substituição e adição de procedimentos, dados e conhecimento.

No método de descida mais íngreme, a cada iteração do método do gradiente, o passo ótimo na direção do gradiente é escolhido.

Os dados iniciais são a precisão necessária e, o ponto inicial da pesquisa X 0 .

Novos pontos são obtidos pela fórmula:

X k+1 = X k – h k × graduarF(X k ), k=0,1,2,…, (6.27)

Onde h k = argumento minF(X k h k × graduarF(X k )) , ou seja, a escolha da etapa é feita de acordo com os resultados da otimização unidimensional em relação ao parâmetro h (em 0< h < ¥).

A ideia principal do método de descida mais acentuada é que a cada iteração do método, o valor do passo máximo possível é escolhido na direção da diminuição mais rápida da função objetivo, ou seja, na direção do vetor antigradiente da função F(X) no ponto X k. (Fig. 2.23).

Ao escolher o tamanho ideal do passo, é necessário do conjunto X M = (X½ X= X k h× graduarF(X k ), h Î /h = 22(2 h-1)2=8(2h-1)=0.

Consequentemente, h 1 = 1/2 é o passo ótimo na primeira iteração do método de descida mais íngreme. Então

X 1 = X 0 – 1/2graduarF(X 0 ),

x 1 1 =0 -1/2 = 1, x 2 1 = 1-1/2 = 2  X 1 = (1, 2).

Verifique o cumprimento das condições para encerrar a busca no ponto de busca X 1 = (1, 2). Primeira condição não atendida

F(X 1 )-F(X 0 ) = 0-2 =2 > = 0,1, mas justo

isto é, todas as derivadas parciais com precisão pode ser considerado igual a zero, o ponto mínimo é encontrado: X*=X 1 =(1, 2). A trajetória de busca é mostrada na fig. 6.7.

Assim, o método de descida mais íngreme encontrou o ponto mínimo da função objetivo em uma iteração (devido ao fato de que as linhas de nível da função F(x 1 , x 2 ) = (x 1 – 1) 2 + (x 2 – 2) 2 . ((x 1 – 1) 2 + (x 2 –2) 2 = consté a equação do círculo, e o vetor antigradiente de qualquer ponto é direcionado exatamente para o ponto mínimo - o centro do círculo).

Na prática, as funções objetivo são muito mais complexas, as linhas também têm uma configuração complexa, mas em qualquer caso o seguinte é verdadeiro: de todos os métodos de gradiente, o método de descida mais íngreme tem o menor número de iterações, mas a busca pelo passo ótimo por métodos numéricos apresenta algum problema, pois em problemas reais que surgem ao projetar RES, o uso de métodos clássicos para encontrar um extremo é praticamente impossível.

Para problemas de otimização sob incerteza (otimização de objetos estocásticos), em que um ou mais parâmetros controlados são variáveis ​​aleatórias, é utilizado um método de otimização de busca adaptativa em dois níveis, que é uma modificação do método gradiente.

X 0 e o valor inicial da etapa de pesquisa h(usualmente
). Novos pontos são obtidos pela fórmula:

X k+1 = X k – h k+1 × graduarФ(Х k), k= 0,1,2,…, (6.28)

onde está o passo h k +1 pode ser calculado usando uma das duas fórmulas: h k +1 = h k + eu k +1 ×a k, ou h k +1 = h k × exp(eu k +1 ×a k ) . O fator de redução é geralmente eu k =1/ k, Onde k– número de iteração do método de pesquisa.

O significado do coeficiente eu k reside no fato de que a cada iteração é feito algum ajuste do tamanho do passo, com o que mais número iteração do método de busca, quanto mais próximo o próximo ponto de busca estiver do ponto extremo e mais precisa (menor) a correção do passo deve ser para evitar que se afaste do ponto extremo.

Valor uma k determina o sinal de tal ajuste (quando uma k>0 passo aumenta, e quando uma k <0 уменьшается):

uma k =sinal((gradF(X k ), graduaçãoF(X))} ,

ou seja uma ké o sinal do produto escalar dos vetores gradientes da função objetivo nos pontos X k E , Onde =X k h k × graduarF(X k ) ponto de prova, e h ké o passo que foi usado para obter o ponto X k na iteração anterior do método.

O sinal do produto escalar de dois vetores nos permite estimar o ângulo entre esses vetores (denotamos esse ângulo ). Se  9, então o produto escalar deve ser positivo, caso contrário, deve ser negativo. Em vista do exposto, não é difícil entender o princípio de ajustar o tamanho do passo no método adaptativo de dois níveis. Se o ângulo entre os antigradientes   (canto afiado), então a direção de busca do ponto X ké escolhido corretamente, e o tamanho do passo pode ser aumentado (Fig. 6.8).

Arroz. 6.8. Selecionando a direção de busca quando  

Se o ângulo entre os antigradientes   (ângulo obtuso), então a direção de busca do ponto X k nos remove do ponto baixo X*, e o passo deve ser reduzido (Fig. 6.9).

Arroz. 6.9. Selecionando a direção de busca quando > 

O método é chamado de dois níveis, pois a cada iteração da busca, não um, mas dois pontos são analisados ​​e dois vetores antigradientes são construídos.

Isso, é claro, aumenta o custo de uma iteração, mas permite que você adapte (ajuste) o tamanho do passo h k +1 sobre o comportamento de fatores aleatórios.

Apesar da facilidade de implementação, o método de descida mais íngreme não é recomendado como um procedimento de otimização “sério” para resolver o problema de otimização incondicional de uma função de muitas variáveis, pois é muito lento para uso prático.

A razão para isso é o fato de que a propriedade de descida mais acentuada é uma propriedade local, sendo necessária a inversão frequente da direção de busca, o que pode levar a um procedimento computacional ineficiente.

Um método mais preciso e eficiente para resolver um problema de otimização paramétrica pode ser obtido usando as segundas derivadas da função objetivo (métodos de segunda ordem). Eles são baseados em uma aproximação (ou seja, uma substituição aproximada) da função F(X) função j(X),

j(X) = F(X 0 ) + (X - X 0 ) T × graduarF(X 0 ) + ½ G(X 0 ) × (X - X 0 ) , (6.29)

Onde G(X 0 ) - Matriz Hessiana (Hessiana, matriz das segundas derivadas), calculada no ponto X 0 :

2 F(X) 2 F(X) . . . 2 F(X)

x 1 2 x 1 x 2 x 1 x n

G(X) = 2 F(X) 2 F(X) . . . 2 F(X)

x 2 x 1 x 2 2 x 2 x n

2 F(X) 2 F(X) . . . 2 F(X)

x n x 1 x n x 2 x n 2 .

A fórmula (2.67) são os três primeiros termos da expansão da função F(X) em uma série de Taylor na vizinhança do ponto X 0 , portanto, ao aproximar a função F(X) função j(X) ocorre um erro de não mais que ½ ½ X-X 0 ½ ½ 3 .

Levando em conta (2.67) no método de Newton, os dados iniciais são a precisão necessária e, o ponto de partida da pesquisa X 0 e obter novos pontos é feito pela fórmula:

X k +1 = X k G -1 (X k ) × graduarФ(Х k), k=0,1,2,…, (6.30)

Onde G -1 (X k ) é a matriz inversa da matriz Hessiana calculada no ponto de busca X k (G(X k ) × G -1 (X k ) = eu,

I = 0 1 … 0 é a matriz identidade.

Considere um exemplo de encontrar um mínimo para a mesma função que no método do gradiente com um degrau constante e no método de descida de coordenadas:

n = 2, X = (x 1 , x 2 ), = 0.1,

F(x 1 , x 2 ) = (x 1 – 1) 2 + (x 2 – 2) 2 min, X 0 =(0, 1).

    Vamos pegar um ponto X 1 :

X 1 \u003d X 0 - G -1 (X 0) ∙grad Ô (X 0),

Onde

grad Ф(X 0) = (2∙(x 1 0 –1)), 2∙(x 1 0 –1) = (–2, –2), ou seja,

ou

x 1 1 = 0 – (1/2∙(–2) + 0∙(–2)) = 1,

x 2 1 = 1 – (0∙(–2) + 1/2∙(–2)) = 2,

X 1 = (1, 2).

Vamos verificar o cumprimento das condições para encerrar a pesquisa: a primeira condição não é atendida

F(X 1 )-F(X 0 ) = 0 - 2  = 2 > = 0.1,

mas justo

ou seja, todas as derivadas parciais com precisão  podem ser consideradas iguais a zero, o ponto mínimo é encontrado: X* = X 1 = (12). A trajetória de busca coincide com a trajetória do método de descida mais íngreme (Fig. 2.24).

A principal desvantagem do método de Newton é o custo de calcular a Hessiana inversa G -1 (X k ) a cada iteração do método.

As deficiências do método de descida mais íngreme e do método de Newton são superadas no método DFP.

A vantagem deste método é que ele não requer o cálculo da Hessiana inversa, e a direção é escolhida como a direção de busca no método DFP - H k × graduarF(Xk), onde H k- matriz simétrica positiva-definida, que é recalculada a cada iteração (etapa do método de busca) e aproxima a Hessiana inversa G -1 (X k ) (H k ® G -1 (X k ) com o aumento k).

Além disso, o método DFT, quando aplicado para encontrar o extremo de uma função de n variáveis, converge (ou seja, dá uma solução) em não mais que n iterações.

O procedimento computacional do método DFT inclui os seguintes passos.

Os dados iniciais são a precisão necessária e, o ponto de partida da busca X 0 e matriz inicial H 0 (geralmente a matriz identidade, H 0 = eu).

    No k-th iteração do método, o ponto de busca Х k e a matriz H k (k = 0,1,…).

    Denote a direção da pesquisa

d k = -H k × graduar F(Xk).

Encontrando o tamanho ideal do passo eu k na direção d k usando métodos de otimização unidimensional (da mesma forma que no método de descida mais íngreme, um valor foi escolhido na direção do vetor antigradiente)

H. Denota v k = eu k × d k e obter um novo ponto de pesquisa X k +1 = X k + v k .

4. Verificamos o cumprimento da condição de encerramento da pesquisa.

Se ½ v k ½£ e ou ½ graduarF(X k +1 ) ½£ e, então a solução é encontrada X * = X k +1 . Caso contrário, continuamos os cálculos.

5. Denote você k = graduar F(Xk+1) - graduarФ(Х k) e matriz H k +1 calcule pela formula:

H k +1 = H k + A k + B k , (6.31)

Onde UMA k =v k . v k T / (v k T × você k ) , B k = - H k × você k . você k T . H k / (você k T × H k × você k ) .

UMA k E DENTRO k são matrizes auxiliares de tamanho n X n (v k T corresponde a um vetor linha, v k significa um vetor coluna, o resultado da multiplicação n linha dimensional em n coluna dimensional é uma quantidade escalar (um número), e multiplicar uma coluna por uma linha dá uma matriz de tamanho n x n).

6. Aumente o número de iteração em um e vá para a etapa 2 deste algoritmo.

O método DFP é um procedimento de otimização eficiente que é eficaz na otimização da maioria das funções. Para otimização unidimensional do tamanho do passo no método DFT, são usados ​​métodos de interpolação.

O conceito de SEO inclui formas de elevar seu site nos resultados de busca de potenciais visitantes. Isso geralmente aumenta o tráfego do seu site.
Enquanto intenso Otimização SEO e a promoção do site pode ser difícil com uma empresa (ou consultor) especializada nesta área, existem vários passos simples, que você mesmo pode executar para aumentar a classificação do portal nos mecanismos de busca. Tudo o que é exigido de você é um pouco de esforço e repensar como você se sente sobre o conteúdo (conteúdo) do site.

Aprenda os 10 princípios básicos da otimização de mecanismos de pesquisa para sites

O monitor que você está atrás

Você não saberá a eficácia da promoção do site se não controlar as posições de pesquisa. O MarketingVox oferece rastreamento de seu PR (Page Rank) com ferramentas como Alexa e Google Dashboard.
Também é importante verificar de onde os usuários chegam ao seu site, quais frases de pesquisa usar. O Yandex Metrica faz um excelente trabalho com essa tarefa.

Palavras-chave, palavras-chave, palavras-chave!

Você deve escolher conscientemente as palavras-chave apropriadas para cada aspecto do seu site: título, artigo, URL e legenda da imagem. Pense no seguinte ao escolher palavras-chave - as informações do meu site serão úteis para o usuário?
A tag de título e o título da página são os dois lugares mais importantes para inserir palavras-chave.
CUIDADO: Ao usar um grande número palavras-chave, os motores de busca podem marcá-lo como spammer e aplicar sanções contra o seu site, até e incluindo a sua exclusão do motor de busca. Atenha-se a uma determinada estratégia ao escolher palavras-chave.

Crie um mapa do site.

Adicionar um mapa do site torna mais fácil para os mecanismos de pesquisa encontrarem as páginas do seu site.
“Quanto menos cliques forem necessários para chegar a uma página do seu site, melhor”, aconselha MarketingVox.

URLs amigáveis ​​para pesquisa.

Torne os URLs mais amigáveis ​​aos mecanismos de pesquisa usando palavras-chave no título

Descrição da imagem.

Os robôs só podem pesquisar texto, não texto em imagens - é por isso que você deve tornar as palavras associadas às suas imagens o mais informativas possível.
Comece com o título da imagem: adicionar a tag "ALT" permite incluir palavras-chave na descrição de cada imagem no recurso da web. O texto visível em torno de suas imagens é importante para SEO.

Contente.

Seu conteúdo precisa ser atualizado, atualizado regularmente, o que geralmente é fundamental para obter mais tráfego.
Os melhores sites para os usuários e, portanto, para os mecanismos de pesquisa são atualizados constantemente informação útil.

Distribuição nas redes sociais

Você deve usar vários fóruns temáticos, grupos em nas redes sociais e portais de informações que estejam próximos ao tópico do seu site, e escreva anúncios lá com um link adicional para um artigo do seu site.
Você também deve colocar botões sociais em seu site e incentivar os visitantes a clicar neles. Tudo isso é uma estratégia para multiplicar exponencialmente os locais onde os usuários verão links para seu recurso.

Vinculação externa

Uma maneira fácil de direcionar mais tráfego para sua propriedade na web é desenvolver relacionamentos com outros sites.
PC World sugere que você combine pessoalmente com os webmasters de sites respeitáveis ​​para que eles coloquem um link para o recurso desejado em seu site.
Certifique-se de que seu parceiro tenha uma boa reputação na web, é claro. Não entre em contato com um site que tenha má reputação, caso contrário, os resultados da otimização do mecanismo de pesquisa do seu site podem piorar.