Dans le monde du référencement, une fuite du 5 mai 2024 a révélé les secrets jalousement gardés des classements de recherche de Google. Plus de 14 000 facteurs de classement ont été accidentellement révélés à partir des documents internes de Google, mettant en lumière la manière dont les sites Web gravissent réellement les échelons de recherche. Validée par des experts SEO, cette fuite a confirmé les soupçons de longue date sur le pouvoir de l'autorité de domaine tout en surprenant tout le monde par le poids que Google accorde aux clics et même aux mentions de votre marque en ligne. Mais au-delà des changements stratégiques, la fuite soulève des questions concernant la confidentialité des utilisateurs et la grande quantité de données collectées par Google via Chrome. L'article se penche sur les conséquences de cette fuite, explorant comment les entreprises peuvent remodeler leurs stratégies de référencement et les implications éthiques des pratiques de Google en matière de données.
Le 5 mai 2024 a marqué la toute première fuite de la collection la plus complète de facteurs de classement de l'API de recherche Google dans l'histoire des moteurs de recherche – un moment véritablement historique que nous n'aurions peut-être pas vu si Erfan Azimi, fondateur et PDG d'une agence de référencement, n'avait pas repéré les documents de Google qui avaient été publiés par erreur sur Github le 27 mars 2024 et qui avaient simplement été oubliés pour être supprimés. L'ironie est qu'ils ont été publiés sous la licence Apache 2.0, permettant à toute personne accédant aux documents de les utiliser, de les modifier et de les distribuer. En tant que tel, le partage des documents avec deux des experts SEO les plus réputés, Rand Fishkin et Mike King – la prochaine étape franchie par Erfan Azimi après avoir repéré la fuite – était dans les limites légales de la licence. Tous deux ont publié les documents et l’analyse qui les accompagne le 27 mai.
Tout en esquivant au début les questions sur l’authenticité des documents, Google a finalement admis que les documents étaient authentiques.
Les plus de 2 500 documents divulgués présentent 14 014 attributs (fonctionnalités API), ou « facteurs de classement », issus de l'API Content Warehouse de Google Search. En d’autres termes, ils nous montrent quelles données Google collecte réellement plutôt que comment Google interprète ces données.
Les informations divulguées revêtent une valeur significative pour toute entreprise visant à augmenter le trafic organique et les conversions de ventes grâce au marketing de recherche Google. Il fournit un aperçu unique des facteurs qui influencent les classements de recherche de Google, permettant aux entreprises de remodeler leurs stratégies de référencement en conséquence.
D'un autre côté, la fuite met en évidence le manque de transparence de Google concernant la manière dont les données des utilisateurs sont collectées et utilisées dans les algorithmes de recherche et soulève des préoccupations éthiques et en matière de confidentialité quant à l'étendue et aux implications de la collecte de données par le géant de la recherche.
Navboost est un algorithme de classement de Google qui a été révélé lors du procès antitrust de l'entreprise auprès du ministère américain de la Justice. Il améliore les résultats de recherche pour les requêtes de navigation en utilisant divers signaux tels que les clics des utilisateurs pour identifier les résultats les plus pertinents. Navboost conserve les clics antérieurs pour les requêtes datant de 13 mois maximum et différencie les résultats en fonction de la localisation et du type d'appareil (mobile ou ordinateur de bureau). Ce signal de classement est crucial pour que les professionnels du référencement le comprennent et l'optimisent, car il peut avoir un impact significatif sur la visibilité d'un site Web dans les résultats de recherche.
Google nie depuis des années que les clics appartiennent à un facteur de classement principal. Ses représentants, dont Gary Illyes, ont constamment souligné que le taux de clics (CTR) est un « signal très bruyant » et que l'utilisation des clics directement dans les classements serait problématique en raison du potentiel de manipulation. Ils ont expliqué que même si les données de clics sont utilisées à des fins d'évaluation et d'expérimentation pour évaluer les changements dans l'algorithme de recherche, elles ne constituent pas un facteur principal dans la détermination des classements de recherche.
Les documents divulgués prouvent le contraire. Le nombre de clics qu’un site Web peut générer est important. Plus vous effectuez d'optimisation sur la page et de marketing de contenu continu, plus vous attirerez de trafic, ce qui entraînera plus de clics, des classements plus élevés et des taux de conversion plus élevés.
Les représentants de Google nous ont constamment mal orientés et induits en erreur sur le fonctionnement de leurs systèmes, dans le but d'influencer le comportement SEO. Bien que leurs déclarations publiques ne soient pas des mensonges intentionnels, elles sont conçues pour tromper les spammeurs potentiels (et de nombreux professionnels légitimes du référencement) en masquant l'impact que les résultats de recherche peuvent avoir. Gary Ilyes, analyste de l'équipe de recherche Google, a réitéré ce point à plusieurs reprises . Il n'est pas seul ; John Mueller, analyste principal des tendances pour les webmasters de Google et chef de l'équipe des relations de recherche, a déclaré un jour qu'ils n'avaient pas de score d'autorité pour les sites Web.
Cependant, comme le suggère la fuite de données, Google dispose d'une mesure globale de l'autorité de domaine. Dans le cadre des signaux de qualité compressés stockés document par document, Google calcule une fonctionnalité appelée « siteAuthority ». Selon Mike King , fondateur et PDG d'iPullRank, même si le calcul spécifique et l'application de cette mesure dans les fonctions de notation en aval restent flous, nous savons désormais avec certitude que l'autorité de domaine de Google existe et est utilisée dans le système de classement Q*.
La récente fuite de l'API de recherche Google a révélé l'existence de listes blanches utilisées pour garantir la qualité et la fiabilité des informations, en particulier sur des sujets sensibles comme la santé et l'actualité, où la désinformation pourrait avoir des conséquences dramatiques sur le bien-être public.
Pendant des périodes critiques comme la pandémie de COVID-19, Google a utilisé des listes blanches pour supprimer la désinformation et donner la priorité aux sources crédibles. Cela a permis de gérer la propagation de fausses informations sur le virus, les traitements et les vaccins, garantissant ainsi aux utilisateurs de recevoir des informations exactes et fiables.
Les sites Web inclus dans ces listes blanches ont démontré leur autorité, leur crédibilité et leur capacité à fournir des informations fiables. Les critères d'inclusion sont stricts et mettent l'accent sur l'exactitude et la fiabilité.
Cependant, l’utilisation de listes blanches soulève également des inquiétudes quant à la transparence et à l’équité, car les critiques remettent en question le potentiel de biais et les critères de sélection.
Pour le référencement, cela souligne l’importance de renforcer la crédibilité et la fiabilité. Les sites Web visant à figurer sur les listes blanches doivent se concentrer sur des rapports précis et adhérer à des normes éditoriales élevées, notamment des politiques de correction claires et des informations de contact.
Malgré la prudence de Google de ne pas faire d'hypothèses basées sur les informations divulguées, les informations contenues dans les listes blanches soulignent leur rôle dans la conservation des informations et le maintien de la qualité des résultats de recherche. Cela souligne l’importance de la crédibilité, de l’exactitude et de la confiance dans le paysage de l’information numérique.
Les documents divulgués suggèrent que Google pourrait limiter la présence de diverses catégories de sites, telles que les blogs d'entreprise, les sites commerciaux et les sites Web personnels, dans les résultats de recherche pour des requêtes spécifiques. Cette approche vise à diversifier les types de sources présentées aux utilisateurs, en garantissant un plus large éventail de perspectives et en réduisant la domination d'un seul type de site.
Par exemple, Google pourrait décider que seul un certain nombre de blogs de voyage ou de sites commerciaux de voyages doivent apparaître dans les résultats d’une requête de recherche donnée relative au voyage. Cette limitation permet d'équilibrer les résultats de recherche, en fournissant aux utilisateurs un mélange d'informations provenant de différents types de sources. Cela évite que les résultats de recherche soient trop saturés par une seule catégorie, comme les blogs personnels ou les sites commerciaux, qui n'offrent pas toujours les informations les plus fiables ou les plus variées.
Cette stratégie met en évidence l'engagement de Google à offrir une expérience de recherche diversifiée et équilibrée. En contrôlant la combinaison de types de sites dans les résultats de recherche, Google vise à améliorer la qualité et la pertinence des informations présentées aux utilisateurs, en garantissant qu'ils reçoivent une vue complète du contenu disponible.
La fuite de l’API de recherche Google a fourni des informations intéressantes sur la façon dont les mentions d’entités, telles que des noms ou des entreprises, pourraient influencer les classements de recherche de la même manière que les backlinks traditionnels. Les mentions font référence aux cas où un nom ou une expression est référencé sur le Web sans nécessairement être lié. Ces mentions peuvent constituer un signal important pour l'algorithme de Google, indiquant la pertinence et l'autorité d'une entité particulière.
Les documents divulgués suggèrent que Google suit ces mentions et les utilise potentiellement pour évaluer l'importance et la crédibilité des entités. Par exemple, les mentions fréquentes d’une marque ou d’un individu sur divers sites Web réputés pourraient avoir un impact positif sur leur classement dans les recherches, tout comme la façon dont les backlinks provenant de sites faisant autorité stimulent le référencement. Cela indique que l'algorithme de Google prend en compte non seulement les liens directs, mais également la présence globale et les discussions d'une entité sur le Web.
Les données de parcours de navigation Chrome font référence aux enregistrements détaillés des interactions et des comportements des utilisateurs dans le navigateur Google Chrome, y compris les liens sur lesquels les utilisateurs cliquent, la durée pendant laquelle les utilisateurs restent sur une page et leurs chemins de navigation. Ces données fournissent à Google une riche source d'informations sur les préférences et les comportements des utilisateurs, qui peuvent être exploitées pour affiner les algorithmes de recherche et améliorer la pertinence des résultats de recherche.
Par exemple,
Si de nombreux utilisateurs cliquent sur un lien particulier et passent un temps considérable sur cette page, cela signale à Google que la page est susceptible d'être de haute qualité et pertinente, améliorant ainsi son classement dans les résultats de recherche.
Cette découverte a de profondes implications pour les stratégies de référencement. Cela suggère que les mesures d'engagement des utilisateurs capturées via Chrome peuvent influencer considérablement les classements de recherche au-delà des pratiques de référencement traditionnelles telles que l'optimisation des mots clés et la création de backlinks . Les professionnels du référencement doivent se concentrer sur la création de contenu qui attire des clics et retient l'intérêt des utilisateurs, garantissant des temps de chargement rapides, une navigation facile et un contenu précieux et engageant. En améliorant l'expérience utilisateur globale, les sites Web peuvent exploiter les données de parcours de navigation de Chrome pour améliorer leur visibilité et leurs performances dans les résultats de recherche de Google.
Cependant, cette découverte soulève également des questions sur l'étendue de la collecte de données sur les utilisateurs et sur la manière dont elles sont utilisées au-delà de la simple amélioration des résultats de recherche.
De plus, la compréhension des facteurs de classement tels que les données de parcours pourrait permettre à des acteurs malveillants de manipuler les résultats de recherche en gonflant artificiellement les clics sur certains sites Web. Cela pourrait exposer les utilisateurs à des contenus trompeurs ou préjudiciables et mettre leur vie privée en danger.
Un contenu de qualité et une stratégie de backlinks bien établie peuvent générer du trafic et contribuer à augmenter les classements Web. Mike King déclare : "Après avoir examiné ces fonctionnalités qui confèrent à Google ses avantages, il est tout à fait évident que créer un meilleur contenu et le promouvoir auprès des publics avec lesquels il résonne donnera le meilleur impact sur ces mesures."
Alors que la position officielle de Google a souvent souligné que la perte de trafic à elle seule n'entraîne pas de sanctions, les documents divulgués et diverses analyses d'experts en référencement suggèrent le contraire.
Des baisses de trafic importantes peuvent en effet signaler des problèmes avec les algorithmes de Google. Par exemple, les documents divulgués ont mis en évidence des concepts tels que la « dégradation du contenu » et le « dernier bon clic », qui impliquent qu'une baisse constante du trafic et de l'engagement des utilisateurs peut avoir un impact négatif sur les classements. Cela suggère que si le trafic d'un site Web diminue considérablement (disons de 10 000 à 2 000 nouveaux utilisateurs par mois), l'algorithme de Google pourrait interpréter cela comme une diminution de la pertinence ou de la qualité du contenu, entraînant potentiellement une pénalité ou une visibilité réduite dans les résultats de recherche.
Les documents divulgués soulignent également l'importance de la recherche par marque, révélant que lorsque les utilisateurs recherchent spécifiquement une marque, cela peut améliorer considérablement le classement de cette marque dans les résultats de recherche de Google. Cela souligne l’importance de bâtir une forte présence et une forte reconnaissance de la marque. Les stratégies de référencement doivent donc inclure des efforts visant à améliorer la visibilité de la marque et à encourager les recherches directes sur la marque. Cela peut être réalisé grâce à un marketing de contenu cohérent et de qualité et à l’engagement du public sur diverses plateformes.
Sur la base de tout ce qui se trouve dans ces documents et d'une annonce récente concernant la désindexation par Google des sites Web qui ne fonctionnent pas sur les appareils mobiles, nous devons prendre les performances mobiles au sérieux. Si votre site fonctionne mal sur mobile, il sera désindexé le 5 juillet 2024.
En réfléchissant à ces révélations, plusieurs ajustements stratégiques sont évidents. Premièrement, il y a le concept d’équilibrer la mentalité du zéro clic. Auparavant, nos emails fournissaient toutes les informations nécessaires pour éviter des clics supplémentaires. Cependant, étant entendu que les données de parcours de clics de Chrome peuvent avoir un impact sur les classements, nous pourrions ajuster notre stratégie de courrier électronique pour encourager les clics vers nos articles de blog. Ce changement garantit que les interactions des utilisateurs avec notre site sont capturées, augmentant potentiellement notre visibilité dans les recherches.
Un autre pivot stratégique consiste à se concentrer sur les liaisons à fort trafic. L’accent est désormais mis sur l’obtention de backlinks provenant de sources réputées et à fort trafic plutôt que de nombreuses sources plus petites. Les sources à fort trafic sont plus susceptibles d'être reconnues par les algorithmes de Google comme des indicateurs de crédibilité et de pertinence, influençant ainsi positivement notre classement.
Créer une demande de contenu visuel est également crucial. Produire des vidéos et des images attrayantes peut influencer favorablement les résultats de recherche. Le contenu visuel a tendance à attirer davantage d’interactions avec les utilisateurs et des temps d’engagement plus longs – des mesures précieuses capturées par les données de flux de clics de Chrome.
Réévaluer les pratiques d’outlinking est également devenue nécessaire. Auparavant considéré comme un signal SEO positif, l’outlinking est désormais considéré comme lié aux scores de spam. Cette découverte nous oblige à réévaluer la valeur de l’outlinking et à ajuster nos pratiques pour éviter d’éventuelles pénalités.
Enfin, l’accent mis sur les mentions plutôt que sur les liens apparaît comme une nouvelle stratégie. Donner la priorité aux mentions de votre marque et de vos entités clés dans un contenu de haute qualité sur le Web peut avoir autant d'impact que la création de liens traditionnelle. Cette approche exploite la reconnaissance par Google des mentions d'entités dans ses algorithmes de classement.
En résumé, les informations issues de la fuite de l'API de recherche Google soulignent l'importance d'une création et d'une distribution de contenu cohérentes et de qualité, de l'engagement des utilisateurs et du rôle nuancé de diverses pratiques de référencement telles que la création de liens et la recherche de marque. Ajuster vos stratégies pour les aligner sur ces révélations peut améliorer votre classement dans les recherches et votre présence numérique globale. Toutefois, trop s’appuyer sur cette fuite sans tenir compte du caractère évolutif de l’algorithme de Google pourrait s’avérer risqué.
Et que pensez-vous de cela ?
N'oubliez pas de consulter ma couverture des aperçus de l'IA de Google et de leur impact sur le marketing numérique.