Algoritmo page rank

Disponível somente no TrabalhosFeitos
  • Páginas : 13 (3234 palavras )
  • Download(s) : 0
  • Publicado : 19 de outubro de 2012
Ler documento completo
Amostra do texto
O MOTOR DE BUSCA GOOGLE

E

O ALGORITMO PAGERANK




Teresinha Moreira de Magalhães[1]




RESUMO

O presente trabalho apresenta a metodologia de busca e classificação de páginas na Web utilizadas pelo motor de busca Google. Técnicas de recuperação das informações, bem como as características do algoritmo PageRank são apresentadas.
PALAVRAS CHAVES: Google,PageRank, algoritmo, WebCrawler




INTRODUÇÃO

Google PageRank - Todos usam, mas poucos sabem como ele funciona. Google PageRank é, provavelmente, um dos algoritmos mais importantes já desenvolvidos para a Web. Com bilhões de páginas existentes e milhões de páginas geradas a cada dia, a questão de pesquisa na Web é mais complexa do que, provavelmente, possa parecer. PageRank éapenas um dos centenas de fatores utilizados pelo Google para determinar os melhores resultados de busca, além de manter as buscas limpas e eficientes. Mas como é, realmente, feito? Como funciona o Google PageRank? Quais fatores impactuam sobre ele e quais não? E o que realmente se sabe sobre PageRank?
A pesquisa se norteou através de dezenas de sugestões e fatos selecionados sobre oPageRank. Reuniram se trabalhos acadêmicos relacionados ao tema - como propostas científicas para melhores resultados dos motores de busca. Foi possível encontrar referências a conhecimentos matemáticos do PageRank, bem como ferramentas úteis para usar o PageRank para analisar a classificação dos projetos web.
O PageRank, por sua vez, é o algoritmo usado pelo motor de busca Google para ajudara determinar a relevância ou importância de uma página, de acordo com o número de vezes que a página é referenciada por outros sites. Interpreta o link de uma página para a outra como um voto das mesmas. Além disso, analisa o valor da página que dá o voto. Os votos dados por páginas importantes pesam mais e ajudam a tornar outras páginas importantes (BRIN & PAGE, apud ZANIER, 2006, p. 39). Diantedisso, sabe-se que trocar links entre sites pode ajudar na classificação, principalmente, se o site aliado estiver com boa qualificação no PageRank.

Web Crawlers

Segundo Menczer (2007), in (LIU, 2007), Crawlers são programas que automaticamente vasculham páginas Web para colher informações que podem ser analisadas e mineradas em um local on-line ou off-line. Web Crawler é umagente, um bot que vai, de página em página, analisando o código HTML, extraindo informações e os links para continuar a sua tarefa. Existem dezenas de utilidades para crawlers, inclusive em ações maliciosas, porém o uso mais comum é na construção de sistemas de busca de páginas (Google, Yahoo Search, Microsoft Bing, dentre outros).
Os crawlers utilizados por esses sites têm como tarefa indexartodo conteúdo possível na Internet. Existem outros tipos de crawlers que se focam em garimpar informações sobre um assunto em especifico ou se focam em baixar somente páginas que sigam um determinado padrão de URL. Esse robô interage diretamente com a Web. Possui como função descobrir novos documentos na Internet de forma a torná-los consultáveis. Os Crawler, automaticamente, visitam páginas Web,leem-nas, copiam-nas e seguem os hiperlinks nelas contidos (ETZIONI, 1999).
Constata-se, também, que o Crawler, além de capturar e transmitir muitos sites simultaneamente e de forma eficiente, tenta prever a similaridade entre o conteúdo do arquivo e a consulta do usuário (MAGALHÃES, 2008).
Segundo Markov & Larose (2007), navegar na Web é um modo muito útil para explorar uma coleçãode documentos linkados quando se conhece um tema ou área pela qual haja interesse. Entretanto, um browser, por si só, é incapaz de obter informações sobre determinado assunto ou tema. A melhor abordagem é ter páginas Web organizadas por tópico ou pesquisar uma coleção de páginas indexadas por palavra-chave.
Para tanto, é preciso levar em conta que rastreamento da Web envolve interação...
tracking img