Em uma bomba para o mundo do SEO, um vazamento em 5 de maio de 2024 expôs os segredos bem guardados das classificações de pesquisa do Google. Mais de 14.000 fatores de classificação foram revelados acidentalmente a partir de documentos internos do Google, esclarecendo como os sites realmente sobem na escada das pesquisas. Validado por especialistas em SEO, esse vazamento confirmou a suspeita de longa data do poder da autoridade do domínio, ao mesmo tempo que surpreendeu a todos com o peso que o Google atribui aos cliques e até mesmo às menções à sua marca online. Mas, além das mudanças estratégicas, o vazamento levanta questões preocupantes sobre a privacidade do usuário e a grande quantidade de dados que o Google coleta por meio do Chrome. O artigo investiga as consequências desse vazamento, explorando como as empresas podem reformular suas estratégias de SEO e as implicações éticas das práticas de dados do Google.
5 de maio de 2024 marcou o primeiro vazamento da coleção mais abrangente de fatores de classificação da API de pesquisa do Google na história dos mecanismos de pesquisa – um momento verdadeiramente histórico que poderíamos não ter visto se Erfan Azimi, fundador e CEO de uma agência de SEO, não localizou os documentos do Google que foram lançados por engano no Github em 27 de março de 2024 e simplesmente foram esquecidos para serem excluídos. A ironia é que eles foram publicados sob a licença Apache 2.0, permitindo que qualquer pessoa que acesse os documentos os utilize, edite e distribua. Como tal, compartilhar os documentos com dois dos mais conceituados especialistas em SEO, Rand Fishkin e Mike King – o próximo passo que Erfan Azimi deu após detectar o vazamento – estava dentro dos limites legais da licença. Ambos divulgaram os documentos e a análise que os acompanha em 27 de maio.
Embora inicialmente tenha evitado perguntas sobre a autenticidade dos documentos, o Google acabou admitindo que os documentos eram genuínos.
Os mais de 2.500 documentos vazados mostram 14.014 atributos (recursos de API), ou “fatores de classificação”, da API Content Warehouse da Pesquisa Google. Em outras palavras, eles nos mostram quais dados o Google realmente coleta, e não como o Google interpreta esses dados.
As informações vazadas têm um valor significativo para qualquer empresa que pretenda aumentar o tráfego orgânico e as conversões de vendas do marketing de busca do Google. Ele fornece uma visão única sobre os fatores que influenciam as classificações de pesquisa do Google, permitindo que as empresas reformulem suas estratégias de SEO de acordo.
Por outro lado, o vazamento destaca a falta de transparência do Google em relação à forma como os dados dos usuários são coletados e usados em algoritmos de busca e levanta preocupações éticas e de privacidade sobre a extensão e as implicações da coleta de dados do gigante das buscas.
Navboost é um algoritmo de classificação do Google que foi revelado durante o julgamento antitruste da empresa junto ao Departamento de Justiça dos EUA. Ele aprimora os resultados da pesquisa para consultas de navegação, utilizando vários sinais, como cliques do usuário, para identificar os resultados mais relevantes. O Navboost retém cliques anteriores para consultas de até 13 meses e diferencia os resultados com base na localização e no tipo de dispositivo (móvel ou desktop). Este sinal de classificação é crucial para os profissionais de SEO compreenderem e otimizarem, pois pode impactar significativamente a visibilidade de um site nos resultados de pesquisa.
O Google nega há anos que os cliques pertençam a um fator primário de classificação. Seus representantes, incluindo Gary Illyes, têm enfatizado consistentemente que a taxa de cliques (CTR) é um “sinal muito barulhento” e que usar cliques diretamente nas classificações seria problemático devido ao potencial de manipulação. Eles explicaram que, embora os dados de cliques sejam usados para fins de avaliação e experimentação para avaliar mudanças no algoritmo de pesquisa, não são um fator principal na determinação das classificações de pesquisa.
Os documentos vazados provam o contrário. Não importa quantos cliques um site pode gerar. Quanto mais otimização na página e marketing de conteúdo contínuo você fizer, mais tráfego atrairá, resultando em mais cliques, classificações mais altas e taxas de conversão mais altas.
Os representantes do Google sempre nos orientam e enganam sobre como seus sistemas funcionam, com o objetivo de influenciar o comportamento de SEO. Embora suas declarações públicas possam não ser mentiras intencionais, elas são projetadas para enganar potenciais spammers – e muitos profissionais legítimos de SEO – obscurecendo como os resultados da pesquisa podem ser afetados. Gary Ilyes, analista da equipe de pesquisa do Google, reiterou esse ponto inúmeras vezes . Ele não está sozinho; John Mueller, analista sênior de tendências para webmasters do Google e líder da equipe de relações de pesquisa, afirmou certa vez que não tem uma pontuação de autoridade do site.
No entanto, como sugere o vazamento de dados, o Google possui uma medida geral de autoridade de domínio. Como parte dos sinais de qualidade compactados armazenados por documento, o Google calcula um recurso chamado "siteAuthority". De acordo com Mike King , fundador e CEO da iPullRank, embora o cálculo específico desta medida e a aplicação nas funções de pontuação downstream permaneçam obscuros, agora sabemos definitivamente que a autoridade de domínio do Google existe e é usada no sistema de classificação Q*.
A recente fuga de informação sobre a API de pesquisa do Google revelou a existência de listas brancas que são utilizadas para garantir a qualidade e fiabilidade da informação, especialmente para temas sensíveis como saúde e notícias, onde a desinformação pode ter implicações drásticas no bem-estar público.
Durante tempos críticos como a pandemia da COVID-19, o Google usou listas brancas para suprimir a desinformação e priorizar fontes confiáveis. Isto ajudou a gerir a propagação de informações falsas sobre o vírus, tratamentos e vacinas, garantindo que os utilizadores recebessem informações precisas e fiáveis.
Os sites incluídos nessas listas brancas demonstraram autoridade, credibilidade e um histórico consistente de fornecimento de informações confiáveis. Os critérios de inclusão são rigorosos, com foco na precisão e na confiabilidade.
No entanto, a utilização de listas brancas também levanta preocupações sobre a transparência e a justiça, uma vez que os críticos questionam o potencial de parcialidade e os critérios de seleção.
Para o SEO, isso destaca a importância de construir credibilidade e confiabilidade. Os websites que pretendem ser incluídos em listas brancas devem concentrar-se em relatórios precisos e aderir a elevados padrões editoriais, incluindo políticas de correção e informações de contacto claras.
Apesar da cautela do Google contra fazer suposições com base nas informações vazadas, os insights sobre as listas brancas enfatizam o seu papel na curadoria de informações e na manutenção da qualidade dos resultados de pesquisa. Isto sublinha a importância da credibilidade, precisão e confiança no panorama da informação digital.
Os documentos vazados sugerem que o Google poderia estar limitando a presença de várias categorias de sites, como blogs de empresas, sites comerciais e sites pessoais, nos resultados de pesquisa para consultas específicas. Esta abordagem visa diversificar os tipos de fontes apresentadas aos utilizadores, garantindo uma gama mais ampla de perspectivas e reduzindo o domínio de qualquer tipo de site.
Por exemplo, o Google pode decidir que apenas um determinado número de blogs de viagens ou sites de viagens comerciais deve aparecer nos resultados de uma determinada consulta de pesquisa relacionada a viagens. Essa limitação ajuda a equilibrar os resultados da pesquisa, proporcionando aos usuários um mix de informações de diferentes tipos de fontes. Evita que os resultados da pesquisa fiquem excessivamente saturados com uma categoria, como blogs pessoais ou sites comerciais, que nem sempre oferecem as informações mais confiáveis ou variadas.
Esta estratégia destaca o compromisso do Google em oferecer uma experiência de pesquisa diversificada e equilibrada. Ao controlar a combinação de tipos de sites nos resultados de pesquisa, o Google pretende melhorar a qualidade e a relevância das informações apresentadas aos usuários, garantindo que eles recebam uma visão completa do conteúdo disponível.
O vazamento da API de pesquisa do Google forneceu insights intrigantes sobre como as menções a entidades, como nomes ou empresas, poderiam influenciar as classificações de pesquisa de forma semelhante aos backlinks tradicionais. As menções referem-se a casos em que um nome ou frase é referenciado na web sem necessariamente estar vinculado. Essas menções podem ser um sinal importante para o algoritmo do Google, indicando a relevância e autoridade de uma determinada entidade.
Os documentos vazados sugerem que o Google rastreia essas menções e potencialmente as utiliza para avaliar a proeminência e a credibilidade das entidades. Por exemplo, menções frequentes de uma marca ou indivíduo em vários sites respeitáveis podem impactar positivamente suas classificações de pesquisa, da mesma forma que backlinks de sites confiáveis impulsionam o SEO. Isso indica que o algoritmo do Google considera não apenas links diretos, mas também a presença geral e a discussão de uma entidade na web.
Os dados de clickstream do Chrome referem-se aos registros detalhados de interações e comportamentos do usuário no navegador Google Chrome, incluindo quais links são clicados, quanto tempo os usuários permanecem em uma página e seus caminhos de navegação. Esses dados fornecem ao Google uma rica fonte de informações sobre as preferências e comportamentos dos usuários, que podem ser aproveitadas para refinar algoritmos de pesquisa e melhorar a relevância dos resultados de pesquisa.
Por exemplo,
se muitos usuários clicarem em um determinado link e passarem um tempo considerável nessa página, isso sinaliza ao Google que a página provavelmente será de alta qualidade e relevância, aumentando assim sua classificação nos resultados de pesquisa.
Esta descoberta tem implicações profundas para as estratégias de SEO. Ele sugere que as métricas de engajamento do usuário capturadas por meio do Chrome podem influenciar significativamente as classificações de pesquisa além das práticas tradicionais de SEO, como otimização de palavras-chave e construção de backlinks . Os profissionais de SEO devem se concentrar na criação de conteúdo que atraia cliques e retenha o interesse do usuário, garantindo tempos de carregamento rápidos, navegação fácil e conteúdo valioso e envolvente. Ao melhorar a experiência geral do usuário, os sites podem aproveitar os dados de clickstream do Chrome para melhorar sua visibilidade e desempenho nos resultados de pesquisa do Google.
No entanto, esta descoberta também levanta questões sobre a extensão da coleta de dados do usuário e como ela é usada, além de apenas melhorar os resultados da pesquisa.
Além disso, compreender fatores de classificação, como dados de fluxo de cliques, pode permitir que atores mal-intencionados manipulem os resultados da pesquisa, aumentando artificialmente os cliques em determinados sites. Isso pode levar os usuários a serem expostos a conteúdo enganoso ou prejudicial e colocar a privacidade em um enorme risco.
Conteúdo de qualidade e uma estratégia de backlinks bem estabelecida podem direcionar o tráfego e ajudar a aumentar as classificações na web. Mike King diz: “Depois de analisar esses recursos que dão vantagens ao Google, é bastante óbvio que criar um conteúdo melhor e promovê-lo para públicos com os quais ele se identifica produzirá o melhor impacto nessas medidas”.
Embora a posição oficial do Google tenha enfatizado frequentemente que a perda de tráfego por si só não leva a penalidades, os documentos vazados e várias análises de especialistas em SEO sugerem o contrário.
Quedas significativas no tráfego podem, de fato, sinalizar problemas com os algoritmos do Google. Por exemplo, os documentos vazados destacaram conceitos como “decadência de conteúdo” e “último clique bom”, o que implica que um declínio consistente no tráfego e no envolvimento do usuário pode impactar negativamente as classificações. Isso sugere que se o tráfego de um site cair substancialmente – digamos, de 10 mil para 2 mil novos usuários por mês – o algoritmo do Google pode interpretar isso como uma diminuição na relevância ou qualidade do conteúdo, potencialmente levando a uma penalidade ou redução da visibilidade nos resultados de pesquisa.
Os documentos vazados também enfatizam a importância da pesquisa de marca, revelando que quando os usuários procuram especificamente uma marca, isso pode aumentar significativamente a classificação dessa marca nos resultados de pesquisa do Google. Isso ressalta o valor de construir uma forte presença e reconhecimento de marca. As estratégias de SEO devem, portanto, incluir esforços para aumentar a visibilidade da marca e encorajar pesquisas diretas da marca. Isso pode ser alcançado por meio de marketing de conteúdo consistente e de qualidade e do envolvimento com o público em várias plataformas.
Com base em tudo o que está nesses documentos e em um anúncio recente sobre a desindexação de sites do Google que não funcionam em dispositivos móveis, precisamos levar a sério o desempenho móvel. Se o seu site tiver um desempenho insatisfatório em dispositivos móveis, ele será desindexado em 5 de julho de 2024.
Refletindo sobre estas revelações, vários ajustes estratégicos são evidentes. Em primeiro lugar, existe o conceito de equilibrar a mentalidade de clique zero. Anteriormente, nossos e-mails forneciam todas as informações necessárias para evitar cliques extras. No entanto, entendendo que os dados de fluxo de cliques do Chrome podem impactar as classificações, podemos ajustar nossa estratégia de e-mail para incentivar cliques em nossas postagens de blog. Essa mudança garante que as interações do usuário com nosso site sejam capturadas, aumentando potencialmente nossa visibilidade de pesquisa.
Outro pivô estratégico envolve focar em links de alto tráfego. A ênfase agora está em proteger backlinks de fontes confiáveis e de alto tráfego, em vez de inúmeras fontes menores. Fontes de alto tráfego têm maior probabilidade de serem reconhecidas pelos algoritmos do Google como indicadores de credibilidade e relevância, influenciando assim positivamente nossas classificações.
Criar demanda por conteúdo visual também é crucial. A produção de vídeos e imagens envolventes pode influenciar favoravelmente os resultados da pesquisa. O conteúdo visual tende a atrair mais interação do usuário e tempos de engajamento mais longos – métricas valiosas capturadas pelos dados de fluxo de cliques do Chrome.
A reavaliação das práticas de outlinking também se tornou necessária. Anteriormente considerado um sinal positivo de SEO, o outlinking agora é considerado vinculado às pontuações de spam. Esta descoberta exige que reavaliemos o valor da outlinking e ajustemos as nossas práticas para evitar potenciais penalidades.
Por fim, o foco nas menções em vez dos links surge como uma nova estratégia. Priorizar menções à sua marca e entidades-chave em conteúdo de alta qualidade na web pode ser tão impactante quanto a construção de links tradicional. Essa abordagem aproveita o reconhecimento do Google de menções de entidades em seus algoritmos de classificação.
Em resumo, os insights do vazamento da API de pesquisa do Google destacam a importância da criação e distribuição de conteúdo consistente e de qualidade, do envolvimento do usuário e do papel diferenciado de várias práticas de SEO, como link building e pesquisa de marca. Ajustar suas estratégias para se alinhar com essas revelações pode melhorar suas classificações de pesquisa e sua presença digital geral. No entanto, confiar demais nesse vazamento sem considerar a natureza evolutiva do algoritmo do Google pode ser arriscado.
E qual é a sua opinião sobre isso?
Não se esqueça de conferir minha cobertura das visões gerais de IA do Google e seu impacto no marketing digital.