Saiba oque é SEO, Como funciona e para que serve Neste artigo e também veja assunto relacionado com TÉCNICAS DE SEO PARA BLOG | Como Melhorar A Qualidade Do Seu Site? Melhores Dicas De SEO para colocar seu negócio no mais alto nível possível.
SEO é a sigla para Search Engine Optimization e é o conjunto de técnicas utilizadas, principalmente divididas entre tecnologia, conteúdo e autoridade, para conseguir posicionar de forma otimizada as páginas de um portal web no Google e demais buscadores, gerando tráfego orgânico.
![]() |
| Melhores Dicas Práticas para aumentar SEO |
O que é SEO?
Cada uma das organizações e indivíduos que possuem um site compartilham um objetivo comum: fazer com que mais pessoas o acessem. O site é a porta de entrada para qualquer negócio hoje, o que aumentou muito o valor de trabalhar o SEO em cada página.
Ah, você já ouviu falar dessa sigla? Tenha em mente que ela é diferente do CEO ein! Se você ainda não conhecia e chegou até aqui, com certeza já ouviu falar do Google, certo?
Cada vez que uma página é publicada na Internet, os buscadores - e o Google é o principal - buscam indexá-la para que possa ser encontrada por quem procura o assunto sobre o qual está falando.
No entanto, há um grande número de páginas que são publicadas todos os dias na Internet, certo? E em outras palavras claramente o que faz com que a concorrência seja tão grande para aparecer nas primeiras posições de uma investigação.
Afinal, como fazer uma página aparecer antes das demais?
É aí que entra o trabalho de SEO (Search Engine Optimization). Como nossa tradução indica, SEO é aprimoramento de mecanismos de busca, um conjunto de técnicas que influenciam os algoritmos dos mecanismos de busca para conceituar a categorização de uma página para uma determinada palavra-chave que foi pesquisada.
Aqui está um videoclipe rápido que resume bem as razões pelas quais o SEO é um componente tão importante no sucesso de qualquer negócio:
Nesta página, você pode aprender tudo sobre SEO, do básico ao avançado. Na parte proeminente há um índice para encontrar o capítulo desejado.
No entanto, se você quiser ler desde o início, nada mais justo do que começar pela história.
Histórico | Origem De SEO
Em 1993 surgiu o Architext, considerado o primeiro buscador na internet (que se tornou o Excite). Com o triunfo, surgiram novos sites semelhantes, como o Yahoo! (1994) e finalmente Google (1997).
Implementado por Larry Page e Sergey Brin, o Google nasceu para ser uma ferramenta de descoberta em grande escala e "organizar a internet", usando a composição de links para estabelecer a relevância das páginas de acordo com a descoberta do cliente, uma iniciativa inspirada no ambiente acadêmico. : um artigo ou pesquisa científica que obtém citações de periódicos e artigos de outros autores, especialmente aqueles com melhor fama, são considerados mais confiáveis.
Seguindo essa lógica, foi desenvolvido o revolucionário PageRank: uma métrica de 0 a 10, construída por Larry Page e calculada pela porção e qualidade dos links recebidos.
De acordo com esta publicação Search Engine Land, foi também em 1997 que o conceito de SEO foi discutido pela primeira vez, no livro Net Results, escrito por Bob Heyman, Leland Harden e Rick Bruner. Segundo eles, o conceito nasceu de uma polêmica sobre o posicionamento do site Jefferson Starship nos buscadores.
Ao integrar mais palavras-chave com o nome da banda no conteúdo do local, perceberam que o local voltou à primeira posição. Com isso, Bob e Leland chamaram essa técnica de Search Engine Optimization.
Mas há um asterisco nessa história: em abril de 2008, Jason Gambert entrou com uma ação no escritório de marcas para patentear o conceito de SEO. Ele comentou que é o primeiro a usar o conceito, em 2007. Porém, como observamos, houve a situação da banda, que ocorreu uma década antes. Mesmo assim, ele quis tentar e quase alcançou.
A situação é que Rhea Drysdale, uma adolescente de 25 anos que trabalha em SEO desde 2004, junto com uma advogada chamada Cheryl Meide, moveu universos e fundos para fazer Jason perder. Foram necessários mais de US $ 17.000 de seu próprio dinheiro para pagar as audiências e 2 anos para ter sucesso e impedir que Jason conseguisse o registro.
Mudanças com a popularização do Google
Até o Google se tornar conhecido, as ocupações de SEO limitavam-se ao envio do site para os buscadores e otimizações na página, como a integração (e repetição) de palavras-chave no conteúdo.
Com a popularização do Google, os especialistas em SEO começaram a dar mais atenção à métrica do link, que é essencial para o buscador.
Foi assim que surgiram as táticas de criação de links, explorando técnicas legítimas de criação de links e práticas mais obscuras focadas apenas em melhorar as classificações do site, independentemente da qualidade.
Essas técnicas de manipulação de ranking, que englobavam essas práticas de troca de links por uma taxa juntamente com outras como o uso de conteúdo oculto e conteúdo duplicado nas páginas, ficaram conhecidas como Black Hat SEO (acesse o post completo sobre o assunto para saber quais são as técnicas primordiais nós estamos).
ATENÇÃO: atualmente, essas técnicas são consideradas prejudiciais a qualquer página da Internet, pois o algoritmo do Google consegue detectar quando são aplicadas. Dessa forma, você usa a lista para entender o que NÃO fazer.
Além disso, foi em 2000 que foi lançada a barra de ferramentas do Google para Internet Explorer, que apresentava o PageRank dos sites, de 0 a 10. Isso tornou as técnicas de link building mais mensuráveis e reconhecidas.
No mesmo ano, os resultados orgânicos do Google aderiram: foi lançado o Google Ads, resultados patrocinados integrados, que estão nos resultados de busca até agora.
Os anúncios pagos são os primeiros a aparecer nos resultados de pesquisa do Google e de outros mecanismos de pesquisa.
A primeira atualização do algoritmo do Google mudou o SEO
Depois de anos de aprimoramento do site, construção de links e muita manipulação de rankings, em 2003, eles lançaram a primeira atualização fundamental de seu algoritmo, chamada Florida, que mudou o SEO para sempre.
Segundo Gord Hotchkiss, a Flórida foi um filtro aplicado às buscas comerciais, identificado pelo uso de palavras-chave específicas. Ele limpou vários dos sites que anteriormente preenchiam os rankings. Em inúmeros testes, a ferramenta removeu entre 50 e 98% dos sites citados acima.
O objetivo eram sites afiliados, com domínios que continham palavras-chave e com uma rede de links que apontavam para a página inicial do site.
Uma vez lançada, a atualização causou indignação dos comerciantes, que dependiam de sites afiliados como sua principal fonte de tráfego (e vendas).
Apesar do efeito da atualização, os resultados foram positivos: foram lançados sites de maior qualidade, os varejistas investiram mais em seu portal e os resultados de busca melhoraram.
Esta foi apenas a primeira atualização do Google. Nos anos seguintes, novas atualizações foram lançadas, continuamente com o intuito de minimizar os resultados ilegítimos apresentados pelo buscador e melhorar a qualidade das buscas.
SEO morreu?
A partir da Flórida, em cada atualização lançada pelo Google também surgem diferentes especulações sobre a morte do SEO. No entanto, o aprimoramento de sites para buscadores vai muito além de técnicas questionáveis que buscam manipular os resultados exibidos pelo Google, que são penalizados e extintos com atualizações.
As técnicas de SEO têm que ser desenvolvidas para chegar ao cliente entregando a resposta que ele procura no formato ideal, oferecendo a melhor experiência viável no ambiente da marca e seguindo as orientações dos buscadores. Consequentemente, a tendência é que sua relevância aumente com o tempo para qualquer organização.
Sim, o mecanismo de busca mais distinto do mundo é o Google, e o próximo capítulo é sobre isso.
Como o Google funciona?
O que aconteceu no início dos anos 2000 é o segredo do sucesso do gigante das buscas. A qualidade dos resultados e a velocidade de sua classificação fizeram da organização o maior motor de pesquisa do mundo, massacrando os participantes, mesmo com a taxa adicional.
A propósito, o Google não é apenas o principal mecanismo de pesquisa, mas também se tornou o site mais visitado do mundo. Todos os dias, um grande número de milhões de usuários confia no Google para suas pesquisas diárias. Somando o volume de visitas nos primeiros 3 meses de 2022, foram cerca de 260 bilhões de visitas, segundo dados da Similarweb.
A propósito, enquanto você lê este conteúdo aqui, o contador de visitas do mecanismo de pesquisa continua aumentando a cada segundo:
Além disso, segundo a Similarweb, o Brasil tem uma posição de destaque ao identificarmos os princípios das buscas no Google por território: ocupamos a 3ª posição com 4,36%, atrás dos Estados Unidos, que lidera com 27,15%, e da Índia com 4,43%. Reino Unido (3,96%) e Japão (3,76%) aparecem em seguida no ranking.
- O domínio do Google fica ainda mais evidente se comparado com o volume de buscas que outras ferramentas possuem. É claro que o Google domina o mercado de mecanismos de busca:
- De acordo com a Statcounter, a participação de mercado global do Google em 2021 foi de 91,4%;
- Em 2022, a diferença com os participantes no nível universal é ainda maior (mais de 92%), conforme os dados abaixo:
Para você tomar uma iniciativa, o domínio é tão grande que nos EUA existe o verbo “to google”, que é usado em frases como He googled you (eu procurei por você no Google).
Aparecer na parte proeminente da primeira página de buscas traz resultados superiores
A regra é clara nas páginas de consulta: o conteúdo que aparece logo após a consulta do cliente, ou seja, o conteúdo que está logo no topo da primeira página de resultados, tende a receber mais cliques e, portanto, mais visitas .
Conseguimos acompanhar isso de perto graças ao trabalho da página Advanced Web Ranking, que atualiza a classificação CTR, ou taxa de cliques, nos resultados das páginas de pesquisa do Google, em um grau universal todos os meses. Ele também permite que você veja o histórico de resultados dos meses anteriores.
No gráfico então, atualizado em abril de 2022, temos a possibilidade de ver que a média de CTR entre pesquisas realizadas em dispositivos móveis e PCs desktop está na faixa de 30%. Isso significa que 1 em cada 3 cliques nas páginas de consulta acontece no primeiro link para o cliente.
Somando a CTR média desta primeira posição com as páginas que aparecem na segunda posição, 15%, e além da terceira posição, 9%, temos a possibilidade de citar que 54% de cada uma das visitas realizadas depois de uma investigação no Google, eles se concentram no primeiro. 3 links apresentados como resultados.
Claramente por isso, o trabalho de SEO se tornou tão relevante nos últimos tempos: quanto melhor posicionada uma página, mais visitas e, portanto, mais vendas uma empresa pode fechar.
O gráfico mostra que da 10ª posição nas buscas, ou seja, do resultado da primeira para a segunda página de resultados, no momento não há um volume tão expressivo de visitas às páginas.
Com esses dados, fica claro que todo mundo quer descobrir os segredos para ser o número um no Google, certo? Acontece que uma vez que falamos de otimização de mecanismos de busca, existe uma composição complexa que evoluiu com a idade e no momento não há espaço para o uso de truques ou práticas conhecidas como Black Hat (falaremos sobre elas em breve).
Primeiro precisamos entender o trabalho por trás das páginas de resultados, e é isso que vamos expor agora.
Rastreamento, indexação e visualização de resultados
Você já conhecia esses termos? Estes são os 3 principais processos de retorno de consulta.
O rastreamento é o processo pelo qual os robôs do Google (chamados Googlebot, spider, bot...) identificam as páginas para enviá-las ao índice do mecanismo de busca. Para isso, os robôs utilizam algoritmos para conceituar a priorização e frequência de indexação das páginas.
Esse processo começa com URLs gerados a partir de processos de rastreamento anteriores e é enriquecido com sitemaps. Conforme você visita as páginas, o Googlebot identifica os links existentes e também os inclui na lista de rastreamento. Novos sites, alterações e exclusões são detectados e atualizados ao longo do processo.
Em seguida vem a indexação, na qual o Googlebot processa todas as páginas rastreadas para incluí-las em seu índice: um grande banco de dados. Informações como conteúdo da página, data de publicação, zona de publicação, título, especificação e dados estruturados são indexados aqui.
Então, uma vez que uma consulta é criada, ela faz uma busca por páginas correspondentes no índice do Google, mostrando os principais resultados. E não é uma relevância baseada em suposições: é definida por mais de 200 componentes de categorização.
Algoritmo e atualizações
Mesmo que você nunca tenha trabalhado com SEO, já deve ter ouvido falar do algoritmo do Google ou de redes sociais como Facebook e Instagram.
Esses algoritmos são delegados para filtrar o que é mais importante para você e não simplesmente jogar todo o conteúdo disponível na página, sem nenhum critério de categorização.
O Google usa mais de 200 componentes de categorização para conceituar a ordem das páginas apresentadas ao cliente para cada consulta feita.
Para melhorar ainda mais as informações apresentadas ao cliente e sua relevância, esse algoritmo é atualizado repetidamente para garantir que ele exiba as páginas mais precisas, relevantes e seguras para seus usuários. E a cada ano parece empurrar mais e mais atualizações por ano.
Aqueles que fazem mudanças monumentais na forma como os resultados aparecem são chamados de atualizações principais. Conheça as principais atualizações que ocorreram ao longo dos anos e seus impactos no buscador:
Conheça as principais atualizações do Google e seus impactos:
Flórida (2003)
Florida foi o nome dado à primeira grande atualização do Google e acredita-se que seja a atualização que colocou o SEO no mapa.
Uma vez lançado, removeu 50-98% dos sites listados acima. O alvo eram sites de baixa qualidade (principalmente afiliados), praticando o preenchimento de palavras-chave, com domínios contendo palavras-chave precisas e com uma rede de links apontando para a página inicial do site.
Panda (2011)
O Panda foi uma atualização fundamental que prejudicou quase 12% dos resultados da pesquisa. O objetivo era penalizar sites com conteúdo de baixa qualidade explorando diversos anúncios e sites presentes em farms de conteúdo. Desde então, suas atualizações se concentram constantemente na qualidade do conteúdo dos sites.
Após 27 atualizações que prejudicaram os resultados da pesquisa, recebeu a última em 2015. O Panda 4.2 foi apenas uma atualização do banco de dados, porém acabou prejudicando vários sites que ainda produziam conteúdo de qualidade bastante baixa.
Pinguim (2012)
Também bem sucedido na época como o Webspam Update, o Penguin foi a atualização delegada para conter as otimizações de conteúdo em excesso. Em seu lançamento, impactou cerca de 3,1% dos resultados de busca em inglês.
Seu objetivo é detectar e penalizar sites que pratiquem o preenchimento de palavras-chave e que participem de esquemas de produção de links (técnicas consideradas black hat).
Assim como o Panda, essa atualização do algoritmo passou por uma sequência de melhorias e lançamentos, até chegar à versão 4.0 (2016), uma vez que passou a fazer parte oficialmente do algoritmo do Google e passou a atuar em tempo real.
Hummingbird (2013)
Diferentemente dos seus amigos que vieram anteriormente, a atualização Hummingbird não foi apenas um complemento ao algoritmo do Google, mas foi uma completa revisão dele.
Com essa atualização, os resultados de buscas para os usuários vão muito além da palavra-chave: o buscador considera não só os termos buscados, mas também todo o seu universo semântico, como o significado daquela busca, incluindo sinônimos e o contexto em que os termos estão inseridos nas páginas e também outros fatores mais complexos, como a localização do usuário e até mesmo pesquisas anteriores realizadas por ele.
Tudo isso é feito para tornar os resultados apresentados cada vez mais relacionados com a verdadeira intenção de busca do usuário, e não somente pelas palavras da sua busca.
Pigeon (2014)
Lançado sem uma divulgação oficial por parte do Google, a atualização do dia 24 de julho de 2014 recebeu o nome de Pigeon por meio de um site de notícias não oficial da empresa. O nome “pombo” veio em razão do instinto natural da ave em encontrar com facilidade o caminho de casa, onde quer que esteja.
O objetivo da atualização, como o nome sugere, foi melhorar a exibição de resultados nas buscas locais, facilitando o encontro de negócios que ofereçam o serviço ou produto que o usuário busca, porém mais próximos a sua casa. A atualização também melhorou a integração do buscador com o Google Maps, que passou a fazer parte da exibição dos resultados.
Antes da implementação do Pigeon, a exibição dos resultados contava com uma lista de até 7 locais espalhados pela cidade, o famoso 7-pack. O único critério para exibição nos resultados da busca era a relevância.
Após a atualização ir ao ar, a plataforma passou a mostrar apenas 3 locais, obrigando negócios a otimizarem seus sites com endereço completo e a criação de um perfil no Google Meu Negócio.
HTTPS/SSL Update (2014)
Depois de alertar e incentivar muito os webmasters a investirem em segurança, em 2014 o Google anunciou que HTTPS estava se tornando um fator de ranqueamento, uma forma de incentivar a migração da comunidade online e assim tornar a web mais segura.
Esse incentivo se deve porque sites que possuem certificado SSL (e assim migram para HTTPS) utilizam informações criptografadas, o que impede que os dados sejam identificados no meio do caminho, caso interceptados.
Mobile Friendly Update – Mobilegeddon (2015)
A atualização do Google para dispositivos móveis ficou conhecida como Mobilegeddon (referência ao filme Armageddon) pelo impacto que os especialistas acreditavam que iria causar. Na prática, porém, o impacto não foi tão grande.
Em resumo, a atualização começou a priorizar sites amigáveis para mecanismos de busca nas pesquisas realizadas em dispositivos móveis, sem considerar se o site era mais ou menos adaptado em dispositivos móveis: ou era ou não era.
Em 2016 o Google lançou uma nova atualização mobile friendly, que teve um impacto nos rankings inferior à primeira, segundo os webmasters (o principal motivo era que a maioria dos sites já era adaptado).
Rankbrain (2015)
Em 2015 o Google anunciou que um sistema que utilizava machine learning e inteligência artificial foi oficialmente incorporado ao seu algoritmo para ajudar na interpretação e apresentação dos resultados de busca: o Rankbrain.
De acordo com o próprio Google, o sistema se tornou um dos 3 principais fatores de ranqueamento, junto com links e conteúdo. Mas, diferentemente dos outros 2 fatores, era mais difícil otimizar seu site para essa inteligência. O que podia ser feito era explorar as palavras que faziam parte da semântica dos conteúdos e deixar claro todo o contexto do seu conteúdo.
Fred (2017)
A atualização Fred foi lançada para identificar sites com conteúdo de baixa qualidade e muitos banners de propaganda.
Segundo John Mueller, webmaster trends analyst do Google na época, “se você estiver seguindo boas práticas de SEO, o único motivo para penalização do seu site é a baixa qualidade de conteúdo”.
Mobile-first index (2018)
Nos últimos anos, o Google tem feito um esforço para entregar resultados de pesquisa mais precisos para consultas feitas em dispositivos móveis, mas também para priorizar classificações com base em quais sites têm melhor desempenho em dispositivos móveis.
Isso aconteceu de vez em 2018 com a atualização Mobile-first index. Na prática, significa que desde então o Google usa predominantemente a versão móvel do conteúdo do seu site para indexação e classificação. Aqui está o que o Google diz em sua documentação sobre o assunto:
“Historicamente, o índice usava principalmente a versão desktop do conteúdo de uma página ao avaliar a relevância de uma página para a consulta de um usuário. Como a maioria dos usuários agora acessa a Pesquisa do Google com um dispositivo móvel, o Googlebot rastreia e indexa principalmente as páginas com o agente de smartphone daqui para frente.”
A partir da mudança, o Google recomenda seguir uma série de etapas para garantir que seu site seja otimizado para a indexação que prioriza os dispositivos móveis:
Garanta que o conteúdo das páginas seja o mesmo no desktop e no celular;
Certifique-se de que o Googlebot pode acessar e processar seu conteúdo ;
Se você tiver dados estruturados, garanta que eles estejam presentes em ambas as versões de seu site;
Certifique-se de que as imagens em seu site para celular sigam as práticas recomendadas (falaremos sobre elas em breve).
Medical Update (2018)
Lançada em agosto de 2018, essa core update gerou grande impacto no mercado por causar alterações no posicionamento de diversos sites. Mas logo ficou claro que o maior impacto aconteceu nas páginas da categoria YMYL, sigla para Your Money, Your Life.
Essas são as páginas que tratam de assuntos ligados principalmente a saúde e finanças, ou seja, que podem impactar diretamente na vida das pessoas. Por esse motivo, a atualização ganhou o nome de Medical Update.
Com base na análise de vários portais, essa atualização do algoritmo do Google foi considerada como uma medida para melhorar as métricas de qualidade, principalmente os fatores E-A-T (falaremos mais sobre esse termo no próximo item). E nesse caso, precisamos destacar um ponto específico: os autores dos conteúdos.
A mudança deixou claro que os sites impactados negativamente tratavam de assuntos YMYL escritos por pessoas que não tinham perfil nem experiência para isso. Por exemplo: para falar sobre saúde, é importante contar com um médico; para indicar opções de investimento, é importante que o autor tenha experiência nesse mercado.
E-A-T (2019)
A partir da grande mudança de agosto de 2018, tivemos outras alterações que foram complementares a ela. E a atualização de março de 2019 tratou de termos já identificados pelos profissionais de SEO, mas que não ficaram claros nas mudanças anteriores. Estamos falando do E-A-T (que não tem relação com comida!).
Essa é a sigla para Expertise, Authoritativeness and Trustworthiness (Expertise, Autoridade e Credibilidade em português), que a partir dessa mudança passou a ser uma diretriz fundamental para ter resultados no Google.
Apesar de já serem itens levados em consideração na produção de conteúdo de qualidade, a mudança deixou ainda mais claro que as credenciais e a formação dos autores, além da relevância das empresas, possuem relação direta com o resultado orgânico dos conteúdos.
Quem trouxe detalhes a respeito desse tema foi a Marie Haynes, palestrante do RD Summit 2018 e referência em SEO.Durante sua palestra, em novembro de 2018, a especialista previu que “em um ou dois anos, vocês vão ouvir falar muito de E-A-T”. E na sua participação, a quality rater responsável pela Marie Haynes Consulting trouxe vários detalhes sobre o tema:
1. Expertise
Para ter bons resultados, você precisa ser um especialista no seu campo de atuação. Por isso, a experiência dos autores conta bastante: é melhor contar com um médico especialista em diabetes falando sobre o tema do que uma pessoa que possui a doença, por exemplo.
2. Autoridade
É preciso mostrar que você é uma autoridade no assunto. Se a sua página é uma comunidade ou fórum de discussão, a qualidade das discussões é o que direciona a autoridade. Comentários de spam ou pouco elaborados, como algo parecido com “grande post, muito obrigada!”, podem ser prejudiciais.
Na prática, ter um artigo sobre a sua empresa ou produto na Wikipédia ou em outros portais de notícia também indica que sua página possui autoridade elevada.
3. Confiabilidade
É necessário mostrar aos usuários que eles podem confiar em seu site, uma exigência especialmente importante para ecommerces, que pedem informações de cartão de crédito para efetivar as compras.
Erros gramaticais e de ortografia também são considerados critérios de confiabilidade. Uma palavra escrita errada já pode prejudicar seu ranqueamento, já que esse é um sinal de baixa qualidade. Além disso, não utilize conteúdos com tradução automática. “Se quiser um conteúdo traduzido, peça para um ser humano fazer para você”, falou Marie.
Atualização de confiabilidade (2019)
No dia 3 de junho de 2019, uma nova atualização do algoritmo do Google foi destaque não só pelo impacto gerado nos sites, mas também por ser a primeira anunciada antecipadamente pela empresa.
Esse era um pedido constante da comunidade, que sempre é surpreendida por atualizações do algoritmo. Para descobrir detalhes da mudança, geralmente é preciso que vários profissionais analisem sites que sofreram alterações positivas ou negativas.
Com esse anúncio um dia antes do lançamento, a comunidade internacional já ficou atenta para qualquer alteração nas métricas.
Confira o tweet feito no perfil Google SearchLiaison: Amanhã, lançaremos uma ampla atualização do algoritmo principal, como fazemos várias vezes por ano. É chamado de Atualização Principal de junho de 2019. Nossas orientações sobre essas atualizações permanecem como abordamos anteriormente.
O motivo para que essa atualização seja reconhecida pelo impacto na confiabilidade é que ela gerou resultados negativos principalmente para os sites de notícias. No Reino Unido, por exemplo, o The Daily Mail divulgou que perdeu 50% do seu tráfego vindo das pesquisas orgânicas após a atualização.
A mudança deixou claro que a confiança do público na qualidade dos conteúdos se tornou um fator ainda mais relevante.
Atualização de diversidade (2019)
Entre as principais mudanças realizadas no algoritmo do Google, essa foi a mais rápida levando em conta o tempo entre uma atualização e outra: foram apenas 3 dias. No dia 6 de junho de 2019 foi lançada a atualização de diversidade.
A partir de então, os sites passaram a contar com apenas 2 resultados diferentes na primeira página da SERP. Isso significa que portais que contavam com vários resultados aparecendo para uma mesma pesquisa tiveram esse volume de links reduzido para dois.
Essa mudança teve o objetivo de diversificar os resultados, evitando que sites de autoridade mais alta conseguissem captar diversas posições entre as 10 primeiras.
BERT (2019)
Antes de fechar 2019, o Google trouxe mais uma alteração no seu algoritmo, baseado em um projeto de processamento de linguagem natural com redes neurais.
BERT, sigla para Bidirectional Encoder Representations from Transformers, é o nome desse algoritmo implementado inicialmente para as pesquisas em língua inglesa. Com isso, a inteligência artificial anterior do Google vai ser complementada pelo BERT.
Isso mesmo: ambas podem atuar em conjunto para melhor definir o ranqueamento de resultados a uma determinada pesquisa.
Para conhecer todos os detalhes sobre essa atualização, confira o conteúdo completo: Google anuncia BERT, seu novo algoritmo de pesquisa.
Favicon e posição 0 (2020)
O ano de 2020 começou não com uma, mas sim com duas mudanças no mês de janeiro. A primeira delas, que é relacionada ao algoritmo, foi referente aos conteúdos da posição 0 (ou featured snippets). Antes a página de resultados apresentava o conteúdo em destaque e repetia ele na sua posição original. A partir da mudança, não há mais essa repetição.
Já a segunda mudança está relacionada à aparência dos resultados, incluindo os anúncios. A intenção dessa atualização era refletir o que os usuários já visualizam nos dispositivos móveis. Mas dessa vez a mudança parece que não durou tanto tempo. É que a repercussão não foi nada boa por parte do público.
Dessa vez a publicação no Twitter foi: “Na semana passada, atualizamos a aparência da Pesquisa no computador para refletir o que há no celular há meses. Ouvimos seus comentários sobre a atualização. Sempre queremos melhorar a Pesquisa, por isso, vamos experimentar novos canais para favicons”.
Page Experience Update e Core Web Vitals (2021)
A pandemia em 2020 trouxe vários impactos para o mercado. E falando de SEO, uma mudança importante aconteceu no Google: a empresa resolveu anunciar sua próxima atualização de algoritmo com antecedência, para as empresas se prepararem para ela sem passar por surpresas.
Chamada de Google Page Experience, a atualização foi programada para 2021 e iniciou no mês de junho.
Como o nome já entrega, o foco é ainda mais na experiência do usuário (UX). Para isso, o Google estabeleceu os Core Web Vitals (principais sinais vitais da web, em português). Esses sinais vitais tratam-se de 3 novas métricas de experiência, que serão consideradas como fatores de ranqueamento:
- LCP (Largest Contentful Paint): avalia se há demora no carregamento do maior conteúdo visível da página;
- FID (First Input Delay): controla o tempo de resposta do site. Se seu site demora para responder a uma solicitação do usuário, é essa métrica que fará a identificação;
- CLS (Cumulative Layout Shift): é responsável por avaliar a estabilidade visual da página, para controlar se o conteúdo não fica instável durante o carregamento.
De forma resumida, os Core Web Vitals focam em 3 aspectos: velocidade de carregamento, interatividade e estabilidade visual.
As 3 métricas que compõem o Core Web Vitals
Para realizar testes e acompanhar as métricas, é possível usar ferramentas como o Google Pagespeed Insights, Google Lighthouse e o próprio Google Search Console. Neste último, é possível acompanhar o desempenho do site ao longo do tempo e o resultado de melhorias:
Análise de desempenho no Google Search Console
Para saber mais sobre o assunto, confira o artigo do nosso especialista em SEO sobre as Core Web Vitals e assista a explicação de John Mueller, Senior Webmaster Trends Analyst do Google:
Tirando a atualização Core Web Vitals que já havia sido anunciada em 2020, o Google anunciou uma atualização de duas partes para o meio de 2021. Eles fizeram algumas mudanças extensas em seu algoritmo, mas não conseguiram terminar tudo a tempo para um lançamento em junho.
Portanto, a primeira atualização principal para 2021 foi lançada com a primeira parte em junho de 2021 e foi finalizada em julho.
O anúncio oficial veio através da página oficial do Twitter e os detalhes permanecem semelhantes aos de outras atualizações principais.
Link Spam Update (junho de 2021)
Com o objetivo de combater o spam de links de forma mais ampla, a atualização do Google em junho de 2021 foi implementada para páginas da web e nos resultados de imagem.
Essa atualização é ainda mais eficaz na identificação e anulação do spam de links que é feito de forma mais ampla, em vários idiomas por exemplo. Essa atualização foi anunciada junto de um vídeo que mostra o volume de páginas de spam mapeadas pelo algoritmo. “Infelizmente, a Internet também é o lar de uma quantidade surpreendente de spam e outras coisas não tão maravilhosas das quais trabalhamos muito para protegê-lo.”
Segundo a publicação feita no Google Search Central Blog, “os links são usados pelo Google como uma maneira de entender qual conteúdo pode ser útil para os usuários. Recebê-los pode ser bom para os sites, desde que merecidos. Uma prática recomendada é evitar métodos de aquisição de links que violem nossas diretrizes contra esquemas de links. Se você tiver links para outros sites, em particular, precisa qualificar esses links de forma adequada.”
Os sites que usavam esse método de spam passaram a ver mudanças nos resultados de pesquisa à medida que esses links são reavaliados pelo algoritmo.
Spam Update (novembro de 2021)
Sim, em 2021 o Google percebeu que spam é um problema sério. Apenas 5 meses depois de um core update relacionado ao tema, mais especificamente da troca de links com páginas spam como vimos antes, foi lançada mais uma em novembro.
Essas atualizações de spam visam violações de diretrizes específicas. Dessa vez o Google não disse se o foco foram novamente os links, conteúdo ou outras formas de spam, mas apenas disse que se trata de spam em geral. Veja o tweet com essa confirmação da atualização:
O objetivo final é sempre o mesmo: melhorar a qualidade dos resultados de pesquisa, eliminando das páginas de resultados sites que os algoritmos consideram de baixa qualidade.
Core Update de Novembro (2021)
Isso mesmo, foram duas atualizações principais no mesmo mês! – que mais uma vez foi divulgado, mas sem muitos detalhes:
O que chamou a atenção do mercado foi o fato de uma atualização tão importante acontecer 10 dias da Black Friday, que para muitos países representa a maior época de compras online. E sim, isso gerou um certo desespero.
Foi aí que Danny Sullivan – que trabalha para o Google com o objetivo de ajudar a educar o público sobre o algoritmo do mecanismo de pesquisa, explorar e explicar problemas que podem surgir, além de obter feedback do público para ajudar a promover soluções – publicou alguns tweets para acalmar os ânimos. Em um deles falou:
“A realidade é que as atualizações básicas não fazem grandes mudanças para a maioria. As pessoas não deveriam entrar em pânico. Talvez mais tweets para tranquilizar as pessoas seriam mais úteis do que o alerta vermelho virtual. A orientação sobre as atualizações principais não mudou.”
Core Update de Maio (2022)
Depois de algumas semanas em que foi percebido grandes picos de volatilidade nas páginas de resultados do Google, identificados por profissionais da comunidade de SEO não só no Brasil mas em todo o mundo, enfim foi confirmada a primeira grande atualização do algoritmo em 2022.
Essa confirmação da atualização principal de maio de 2022 aconteceu com a publicação no Blog da Central de Pesquisa do Google no dia 25/05. Segundo o comunicado, o processo de atualização será concluído dentro de um prazo de 2 semanas.
O fato é que, no dia seguinte após o anúncio, o rastreador de volatilidade da SEMrush marcou a pontuação mais alta dos últimos meses.
Não há nenhum aviso específico sobre mudanças que foram feitas, apenas o alerta de que as atualizações podem gerar mudanças perceptíveis no desempenho das páginas.
Como acompanhar as mudanças do algoritmo do Google?
Como podemos observar, os últimos anos foram recheados de atualizações no algoritmo principal do Google, especialmente após o Mobile-first index em 2018. E claro que, olhando para os próximos anos, a tendência é que esse fluxo de atualizações se mantenha ou até aumente.
Então qual a melhor forma de acompanhar essa série de mudanças e evitar ser pego de surpresas?
Existem alguns caminhos para acompanhar os próximos capítulos dessa novela chamada “atualizações do algoritmo do Google”. Esses são os passos que nós recomendamos:
- Seguir o perfil oficial Google SearchLiaison no Twitter. É por lá que os principais anúncios são feitos, trazendo detalhes ou compartilhando links com as informações completas;
- Também acessar a página da Moz que acompanha os updates do Google;
- Acompanhar as novidades do portal Resultados Digitais. As próximas novidades vamos contar por lá
Agradecemos pela sua visita, convidamos-te a fazer parte da nossa equipe de novidades a cada dia. Seja fã ou seguidor, aqui postamos todo tipo de conteúdo. Siga a nossa página no Facebook e/ou inscreva-se no nosso canal do YouTube.
ENVIE SEU CONTEÚDO
SABIAS QUE, PODEMOS POSTAR DIVULGAR E PROMOVER SEU TRABALHO SE ENVIARES PRA NÓS NO WHATSAPP OU E-MAIL? POIS É, NAO PERCA TEMPO, ENTRE EM CONTACTO CONOSCO A PARTIR DOS MEIOS ABAIXO
WHATSAPP: +258855141195
E-MAIL: zaydpanda4@gmail.com
REMOÇÃO DE CONTEÚDO
VISTE ALGUM ERRO NESTE ARTIGO OU ALGO RELACIONADO AOS DIREITOS RESERVADOS? INFORME-NOS PARA A REMOÇÃO DO MESMO ENVIANDO SUA MENSAGEM COM DEVIDA IMAGEM (SCREENSHOT) QUE COMPROVA A VIOLAÇÃO DOS TERMOS.


0 Comentários