Clique aqui para falar com a Agência Prime Web

Algoritmos do Google

Algoritmos do Google

Algoritmos do Google: saiba quais são e como funcionam

Já parou para pensar em como é feito o ranqueamento do Google? Por que, ao fazermos nossas pesquisas, existem sites que aparecem em primeiro lugar, com maior destaque, enquanto outros são deixados para as páginas restantes? Como o buscador faz a distinção do que é mais importante?

São muitas as perguntas em torno do funcionamento da internet, e responder a essas questões pode ser algo muito complicado. Todavia, quando assimilamos a função dos algoritmos do Google nesse meio, passamos a compreender como o site de pesquisas mais famoso da internet funciona.

Com diversas atualizações e incrementações, esses algoritmos são capazes de ditar a melhor forma de agirmos no meio online, de maneira a termos mais visibilidade e sucesso. Para isso, contudo, é necessário saber como eles funcionam.

Como funcionam os algoritmos do Google?

É difícil de imaginar, mas houve uma época em que a internet não era popular como é nos dias atuais. Por isso, não havia a preocupação que existe agora em seguir diretrizes específicas, até porque elas não existiam!

Conforme o universo online foi se tornando popular, surgiu a necessidade de facilitar a vida dos internautas que procuravam por alguma informação. Nesse momento, buscadores como o Google foram criados.

Somente a sua elaboração, contudo, não era o suficiente para organizar esse espaço digital. Era preciso, também, criar algoritmos que fossem eficientes e, ao mesmo tempo, não facilmente burlados. No começo, por exemplo, as regras eram facilmente ignoradas e pessoas utilizavam trapaças como o chamado black hat.

Para evitar esse tipo de situação, os algoritmos do Google foram sendo atualizados e aprimorados. Esses cálculos, que têm como principal objetivo descobrir, entender e organizar tudo o que está na internet de maneira a otimizar a experiência do usuário, possuem diversas versões. Conheça a sua evolução!

Flórida

Logo após o surgimento do Google, durante o final da década de 90, muitos administradores de websites descobriram que o principal fator de ranqueamento, à época, era a quantidade de links externos recebidos por um site.

Isso fez com que muitas páginas poucos relevantes, mas que eram citadas repetidamente em diversos ambientes onlines externos, ficassem na primeira colocação da página de resultados.

Dessa maneira, o Google começou a trabalhar na criação de algoritmos e atualizações que barrassem esse tipo de comportamento.

O Florida, colocado em prática em 2003, foi a primeira grande atualização proposta pelo Google. Com ela, estima-se que o buscador conseguir eliminar algo entre 50% a 98% dos sites listados e indexados anteriormente. Os principais alvos foram páginas com pouca relevância e que utilizavam técnicas de black hat para alcançar um bom posicionamento.

Panda 1.0

Algoritmo Panda 1.0 do Google

Em fevereiro de 2011, o Google lançou a primeira atualização Panda. Em pouco tempo, essa atualização conseguiu modificar em até 12% os resultados de pesquisa.

Os principais alvos foram sites que tinham baixa qualidade e conteúdo nulo ou perto disso e que apostavam em excesso na repetição de palavras-chave. Além disso, domínios que exibiam publicidade em grandes quantidades também foram punidos.

Se o seu site foi atingido de alguma forma pelo Panda, você irá perceber rapidamente uma queda brusca de tráfego. Contudo, não haverá nenhuma notificação oficial de punição do Google.

Panda 2.0

Algoritmo Panda 2.0 do Google

Mais adiante, ainda em 2011, mas agora em abril, o Google lançou um update da atualização Panda. Os alvos continuaram sendo sites com conteúdo de baixa qualidade ou duplicado e páginas que estivessem lotadas de anúncios. A diferença, contudo, é que dessa vez, sites grandes e pequenos foram penalizados.

Além disso, a atualização também passou a considerar sinais comportamentais para aplicar um veredito final, como bloqueios por parte de usuários ou pesquisadores do Google.

Schema.org

Algoritmo Schema.org do Google

Os principais buscadores da internet perceberam que havia diferenças em suas regras de programações. Isso fazia com que os desenvolvedores de sites tivessem muita dificuldade na hora de criarem toda a sua HTML, já que precisam criar um site com diferentes tipos de códigos que atendessem todas as demandas.

Por esse motivo, em junho de 2011, o Google, o Bing e o Yahoo! se juntaram e criaram uma formatação única. Chamada de “Schema.org”, com ela se tornou possível criar tags XML que oferecem informações adicionais – em forma de código – sobre um conteúdo que não é novo. Assim, a sua posição nos resultados melhoraria consideravelmente em todos os sites de pesquisa.

Além de facilitar a vida dos administradores, que não precisavam mais desenvolver seus websites em diferentes linguagens, essa atualização também otimizou a experiência dos internautas.

Panda 2.4

Algoritmo Panda 2.4 do Google

Em agosto de 2011, a terceira versão da atualização Panda foi lançada.

É estimado que o Google obteve grande êxito em relação à experiência do internauta com os sites e conseguiu afetar em 6% a 9% de todo o tráfego de sites no mundo inteiro e na maioria dos idiomas existentes.

Freshness

Lançado em novembro de 2011, a atualização Freshness chegou para mudar completamente a forma com os administradores de sites realizam o seu trabalho, impactando diretamente em sua atuação. Isso porque, agora, os resultados de uma pesquisa podem aparecer por ordem cronológica.

Isso quer dizer que, com esse algoritmo do Google, além de se preocupar em criar um conteúdo de qualidade, também é necessário estar atualizando o seu site constantemente. Dessa forma, você terá prioridade nos resultados oferecidos e sempre estará em destaque.

Algoritmo de layout de página

Essa atualização teve como principal objetivo penalizar sites que exibissem uma taxa elevada de anúncios no topo do site, prejudicando, dessa forma, a navegação do usuário.

Caso o seu site tenha sido afetado por esse algoritmo, você deve diminuir rapidamente os índices de anúncios. Não é necessário, porém, excluí-los por completo, mas sim realocá-los abaixo da dobra do layout.

Também é importante que a parte de cima do site tenha conteúdo informativo, que possa auxiliar o internauta em suas buscas online.

Pinguim 1.0

Algoritmo Pinguim 1.0 do Google

Foi introduzido, em abril de 2012, o algoritmo Google Penguin, que impactou em aproximadamente 3% dos resultados de busca em inglês.

O seu principal objetivo é identificar sites que utilizam técnicas ilegais para ficarem em destaque na internet (tais como keyword stuffing e black hat, ou seja, esquemas que geram links) e penalizá-los.

Caso o seu site seja identificado por esse algoritmo do Google, é preciso ficar atento e seguir certas regras para se recuperar. São elas: excluir todos os links não naturais; não aceitar aqueles que possam ser prejudiciais; enviar uma solicitação de reconsideração ao buscador.

Tenha em mente, contudo, que você não irá se recuperar rapidamente: é preciso esperar até a próxima atualização de dados.

Knowledge Graph

Algoritmo Knowledge Graph do Google

O Knowledge Graph foi introduzido como um novo tipo de resultado para as pesquisas.

Conhecido no Brasil como gráfico de conhecimento, essa atualização ofereceu ao usuário uma caixa separada no canto superior da página de pesquisa. O principal objetivo é fornecer alguns dados resumidos para a consulta dos usuários, que são elaborados levando em conta a opinião do público em geral.

Panda 3.7

Algoritmo Panda 3.7 do Google

Com objetivos similares às atualizações anteriores do Panda, a versão 3.7 foi lançada em 8 de junho de 2012, visando alcançar ainda mais sites que estejam fora dos padrões de qualidade exigidos pelo Google.

Filtro DMCA (Pirate)

Algoritmo Filtro DMCA (Pirate) do Google

Em agosto de 2012 foi introduzido o Filtro DMCA, que diz respeito às violações de direitos autorais.

Agora, o Google passa a interferir nas classificações dos sites que recebem, constantemente, avisos sobre remoção de direitos autorais. Caso as mensagens sejam ignoradas, todas as páginas serão afetadas.

Para recuperar o seu lugar anterior nos resultados de pesquisa, é preciso esperar até a próxima atualização de dados.

Panda #20

Algoritmo Panda 20 do Google

O Panda #20 continuou com a intenção de excluir e penalizar sites mal intencionados e que ofereciam conteúdos de má qualidade para os internautas.

É possível dizer que essa atualização conseguiu atingir cerca de 2,4% de todos os resultados de pesquisa fornecidos em inglês, no mundo inteiro.

Atualização de domínios de correspondência exata

O domínio de um site é extremamente importante. Ao mesmo tempo em que deve ser clean e simples, também deve possuir algo que chame a atenção das pessoas. Por isso, os chamados “domínios de correspondência exata” surgiram.

Eles possuem, basicamente, URLs muito básicas que exemplificam de forma muito clara o serviço prestado e os produtos oferecidos. A nova atualização do Google, contudo, lançada em setembro de 2012, pode colocá-los em risco, já que abaixa a sua posição nos resultados de pesquisa.

Sem nenhum tipo de ligação com os algoritmos Penguin ou Panda, afetou cerca de 0,6% das pesquisas.

Panda #23

Algoritmo Panda 23 do Google

No final do ano de 2012, a atualização 23 do Panda foi lançada.

Não há números exatos sobre os alcances dessa atualização, contudo, é estimado que essa versão conseguiu afetar mais sites do que as anteriores, o que permitiu um resultado mais otimizado para os usuários do Google em todas as regiões do planeta.

Atualização Domain Crowding

Você provavelmente já percebeu que, às vezes, quando fazemos uma pesquisa em qualquer tipo de buscador, diversos dos resultados obtidos pertencem a um mesmo site. Isso não oferece muitas possibilidades e diversidade, o que pode tornar a experiência do usuário em algo desagradável.

Por isso, o Google atualizou, novamente, o seu algoritmo. Lançado em maio de 2013, o Domain Crowding procura evitar que esse tipo de acontecimento ocorra. Ou seja, ele mostra menos links de um mesmo domínio em uma página de resultados.

Pinguim 2.0

Algoritmo Pinguim 2.0 do Google

Com o objetivo de evitar que trapaceadores fiquem em destaque nos resultados de pesquisa, a Google lançou, em maio de 2013, a atualização Penguin 2.0. O seu principal objetivo é funcionar como um tipo de filtro de spam, punindo as páginas que utilizam técnicas ilegais como o black hat.

Ao agir de forma mais profunda do que sua versão anterior, esse algoritmo irá analisar de maneira mais intensa as páginas de um site. Agora, não se verifica somente a home, como fazia o Penguin 1.0.

Atualização Payday Loan

Essa ação do Google teve como principal objetivo atingir sites de indústrias que eram visivelmente abusivas de alguma maneira.

O nome da atualização, que inclui a palavra em inglês “Payday” (em português, dia do pagamento), tem relação à um dos alvos do algoritmo, que eram as empresas que trabalhavam com empréstimos no dia de pagamento. Além disso, sites pornográficos também atingidos.

Apesar de todo o esforço e de desmascarar inúmeras técnicas de black hat em SEO, essa atualização só conseguiu modificar cerca de 0,3% das buscas nos Estados Unidos.

Atualização Panda Recovery

Trata-se de uma versão mais light da atualização Panda.

Através de ações, ela trouxe a recuperação para diversos sites que haviam sido penalizados anteriormente, mas que passaram por reestruturação.

Com isso, os webmasters puderam perceber a volta de tráfego aos sites, ocasionadas pelo retorno das classificações aprimoradas.

Hummingbird

Algoritmo Hummingbird do Google

Diferente de atualizações anteriores, como o Panda e o Penguin, o Hummingbird não funciona com base na penalização. Na verdade, ele foi criado com a intenção de mudar a maneira em que o Google reage a diferentes tipos de consultas.

Por esse motivo, o buscador passou a não se concentrar apenas nas palavras-chaves que são utilizadas nos artigos postados. Agora, ele também analisa todo o contexto do texto para, assim, ser capaz de entender qual foi a intenção do internauta ao criá-lo e publicá-lo.

Lançado em agosto de 2013, o algoritmo foi capaz afetar 90% das consultas de pesquisa! Esse resultado mostra o quão eficaz a atualização foi.

Panda 4.0

Algoritmo Panda 4.0 do Google

Em 2014, 3 anos após a primeira versão lançada da atualização Panda, o Google anunciou a Panda 4.0.

Essa versão conseguiu atingir em até 7,5% dos índices de pesquisas em língua inglesa e, assim como todos os Pandas anteriores, visou otimizar a experiência dos usuários ao utilizarem o Google como um canal de buscas.

Pigeon

Algoritmo Pigeon do Google

Com o objetivo de melhorar a experiência de internautas que fazem pesquisas locais, a atualização nomeada Pigeon foi criada em julho de 2014. A intenção era tornar os resultados mais precisos e relevantes dentro das buscas orgânicas e nos resultados naturais.

Isso interferiu, é claro, nos resultados oferecidos pelo Google Maps. Mesmo assim, empresas registraram quedas nos pacotes locais e reclamaram, dizendo que o algoritmo não melhorou a experiência.

Pinguim 3.0

Algoritmo Pinguim 3.0 do Google

Havia muita expectativa em relação à atualização Penguin 3.0. Ela, contudo, não trouxe o fluxo que os internautas e administradores de sites esperavam.

Assim como as outras versões, essa, que foi lançada em outubro de 2014, penaliza as páginas que utilizam técnicas como o black hat. Caso você seja afetado, deve esperar até a próxima atualização de dados para recuperar a sua posição no SERPs.

DMCA/Pirate #2

Algoritmo DMCA/Pirate # 2 do Google

Em outubro de 2014, uma segunda versão do Pirate foi lançada. Apesar do objetivo ainda ser alcançar sites que quebravam as leis de direitos autorais, essa nova atualização visou, principalmente, sites que disponibilizavam torrents, de maneira que diversos domínios pararam de aparecer nos resultados do Google e perderam números expressivos em tráfego.

Além disso, termos de pesquisa que remetiam à busca por conteúdos ilegais, como “download”, “gratuito” e “vigia” foram deletados do preenchimento automático do Google.

Pigeon #2

Algoritmo Pigeon # 2 do Google

A atualização do Pigeon, lançada em dezembro de 2014, fez com que o algoritmo alcançasse todos os países falantes da língua inglesa.

Dessa forma, as listagens que diziam respeito à locais mais longes dos centros das cidades foram de pacotes locais para muitas consultas de pesquisa.

Atualização para dispositivos móveis

Também conhecida como Mobile Friendly, essa atualização foi lançada como principal objetivo de impulsionar páginas de sites que já estavam otimizadas para os dispositivos móveis.

De acordo com o Google, esse algoritmo visa:

Contudo, o resultado dessa atualização não foi o esperado e não conseguiu alcançar os níveis previstos. Mas continua sendo importante que todo site tenha uma versão mobile.

Atualização Local 3-Pack

Também relacionada à pesquisa regionalizada, a atualização Local 3-Pack, que foi lançada em agosto de 2015, apresenta uma nova maneira no momento de listar empresas locais nos resultados de pesquisa.

Para isso, mudou o pacote de 7 locais, em que sete empresas eram exibidas, para uma tela de resultados mais resumida, listando apenas três companhias. Essa mudança pode parecer muito simples, mas mudou completamente o ‘look-n-feel’ e a maneira em que era feita a navegação dentro dos pacotes.

RankBrain

O algoritmo da Google chamado de Hummingbird foi incrementado em outubro de 2015: o RankBrain foi incorporado ao seu código.

Considerado o terceiro fator mais importante de ranqueamento, ele tem como principal objetivo automatizar processos e, assim, eliminar a necessidade de humanos durante o momento de disponibilização de informações. Podemos concluir, então, que esse sistema é totalmente baseado na inteligência artificial, que utiliza os dados obtidos pela máquina para organizar os resultados obtidos.

Esse algoritmo do Google surpreende justamente por obter conhecimento da mesma forma que um ser humano, já que faz ligações entre tudo aquilo que ele já sabia e tudo o que ele aprende. O melhor de tudo é que ele não precisa de ninguém para ensiná-lo: basta ser programado corretamente!

Atualização do núcleo do algoritmo de classificação principal

No início de janeiro de 2016, o Google promoveu uma grande atualização no núcleo de classificação de seu buscador, fazendo com que muitos administradores sentissem diferenças no posicionamento de suas páginas.

Essa atualização não teve ligação com a Pinguim nem com a Panda e só visou oferecer melhorias dentro do próprio núcleo de pesquisas e fornecer melhores resultados para os usuários.

Novo layout do AdWords

O Google Adwords é, provavelmente, uma das maiores ferramentas relacionadas aos links patrocinados na internet. A sua cobrança é feita por meio dos clicks e, por isso, é altamente utilizada pelos internautas.

Em fevereiro de 2016, o Google fez diversas mudanças nesse aplicativo. Ele removeu, por exemplo, todos os anúncios da coluna da direita. Ao mesmo tempo, criou blocos com quatro anúncios que aparecem em diferentes pesquisas comerciais.

Essas modificações dizem respeito apenas aos recursos pagos. Entretanto, possui grande impacto na CTR dos resultados orgânicos, principalmente quando tratamos de palavras-chave que são extremamente competitivas.

Possum

Algoritmo Possum do Google

Em setembro de 2016 o Google surpreendeu todos os seus usuários com uma série de mudanças relacionadas ao filtro de classificação local. Nomeado de ‘Possum’, ele obteve diferentes efeitos, tais como:

Podemos perceber, então, que ao realizar uma pesquisa, os links disponibilizados em uma página de resultados vai depender de diferentes fatores específicos.

Pinguim 4.0

Algoritmo Pinguim 4.0 do Google

Ainda em setembro de 2016, foi confirmado que o Penguin passaria por mais uma atualização. A partir dessa data, ele se tornou parte fundamental do algoritmo do Google, e começou a funcionar em tempo real!

Essa mudança faz com que todas as alterações feitas em um site possam ser visualizadas rapidamente pelos internautas, já que a página será rastreada e reindexada de maneira mais eficiente.

Fred

Algoritmo Fred do Google

O Fred é a atualização mais recente proposta pelo Google.

Trata-se de um algoritmo feito para filtrar resultados que oferecem má qualidade para o usuário e têm como única função gerar renda para anúncios.

Colocada em prática em 2017, a Fred não gerou grandes explicações por parte do Google e ainda gera muitas dúvidas a respeito de seus principais objetivos.

O que a coletividade de webmasters conseguiu concluir, entretanto, é que esse algoritmo continua os princípios do Google de sempre priorizar os usuários. Por essa razão, os sites afetados são aqueles que fornecem materiais de baixa qualidade.

Conclusão

De tempos em tempos, o Google lança novas atualizações. Para quem tem interesse em colocar um site na primeira página de resultados e, dessa forma, impulsionar o tráfego orgânico das páginas, é de extrema importância saber ter em mente quais são elas e como elas irão afetar a lista de indexação de alguma maneira.

Por isso, para obter sempre bons resultados, não perca as novidades a respeito das renovações do Google e fique atento aos conteúdos da Prime Web!