Google aurait été victime d’une fuite massive révélant ses pratiques SEO

Corentin Béchade
Publié le 29 mai 2024 à 07h53
Les secrets du moteur de recherche Google auraient été (partiellement) levés © M-Production / Shutterstock
Les secrets du moteur de recherche Google auraient été (partiellement) levés © M-Production / Shutterstock

Des milliers de documents appartenant à Google auraient fuité sur le web. Ces derniers détaillent une partie du fonctionnement du très secret algorithme d’indexation du moteur de recherche.

Depuis sa création en 1998, Google a toujours tenté de garder son algorithme de recherche secret. D’une part pour éviter de donner la recette de son succès à ses concurrents, mais aussi pour éviter de voir des sites essayer de se hisser en haut des résultats en trichant sur les critères de référencement. Malheureusement pour l’entreprise, il semblerait qu’une partie de ce fameux algorithme ait fuité sur le web.

Google reste muet devant la fuite

Rand Fishkin, un expert en référencement, explique en effet avoir mis la main sur des milliers de documents détaillant le fonctionnement de l’algorithme Google. Ces derniers auraient été obtenus en raison de leur mise en ligne accidentelle sur GitHub. Google n’a pas confirmé la véracité de ses documents, mais de nombreux experts SEO semblent prêter du crédit à cette fuite.

Concrètement, ces documents ne détaillent pas exactement comment Google décide de quel site va apparaître en haut des résultats de recherche. Ils listent simplement une partie des très, très nombreux critères pris en compte pour le référencement. Le géant de la recherche semble tenir compte d’au moins 14 000 critères différents au moment de décider qui va arriver en haut de son classement. En revanche, la pondération de ces critères n’a pas été dévoilée, limitant quelque peu les dégâts pour Google.

Vers encore plus de spam sur Google ?

Parmi les paramètres pris en compte dans le référencement, on retrouve sans surprise le maillage interne et externe d’un site (soit sa propension à insérer des liens aussi bien vers son propre site que vers des ressources externes), mais aussi la prise en compte du nombre de clics sur ses liens. En somme, un site peut être bourré de lien, mais encore faut-il que les gens cliquent dessus pour envoyer un signal positif à Google.

Il semblerait également que Google prête particulièrement attention à la « réputation » d’un site au moment de jauger son référencement, ainsi qu’a l’expertise de l’auteur qui crée le contenu sur ledit site. Des doutes persistent aussi sur l’utilisation de données issues du navigateur Google Chrome pour affiner les résultats de recherche. Une pratique à laquelle Google a toujours nié se prêter (pour des raisons évidentes d’abus de position dominante), mais qui semble pointer le bout de son nez çà et là dans le code.

Les documents en eux-mêmes sont relativement techniques, ne permettant pas à tout un chacun de comprendre les fonctionnement interne de l’algorithme de Google, mais nul doute que les professionnels du référencement vont éplucher ces données avec attention dans les prochaines semaines. Quant à savoir si cela augure une amélioration de la pertinence des résultats de Google ou au contraire l’arrivée d’une vague encore plus massive de contenu de piètre qualité, seul le temps permettra de trancher.

Meilleur moteur de recherche, le comparatif 2024
A découvrir
Meilleur moteur de recherche, le comparatif 2024

07 février 2024 à 11h53

Comparatifs services

Source : sparktoro.com

Par Corentin Béchade

Journaliste depuis quasiment 10 ans, j’ai écumé le secteur de la tech et du numérique depuis mes tout premiers chapôs. Bidouilleur (beaucoup), libriste (un peu), j’ai développé une spécialisation sur les thèmes de l’écologie et du numérique ainsi que sur la protection de la vie privée. Le week-end je torture des Raspberry Pi à grands coups de commandes 'sudo' pour me détendre.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (4)
Felaz

Rien de très neuf sous le soleil :wink:

MisterDams
En somme, un site peut être bourré de lien, mais encore faut-il que les gens cliquent dessus pour envoyer un signal positif à Google.

Ça recoupe cette info avec Analytics ou juste avec le score SEO de la page de destination ? Ce serait un peu déloyal qu’un score SEO puisse être amélioré par la seule présence d’Analytics par rapport à un Matomo… (mais pas étonnant, cela dit)

ChezDebarras

bing/chat ne liste que 20 ce btrd ! A croire qu’ils se protègent mutuellement

Contenu de qualité
Backlinks (liens entrants)
SEO technique
Optimisation des mots-clés
Expérience utilisateur (UX)
Vitesse de chargement de la page
Compatibilité mobile
Structure de l’URL
Balises de titre et méta-description
Contenu dupliqué
Sitemap XML
Réseaux sociaux
Liens internes
Liens sortants
Données structurées (balisage schema.org)
Qualité du code HTML et CSS
Sécurité du site (SSL)
Taux de rebond
Temps passé sur le site
Densité des mots-clés
Era

En termes de SEO, au-delà de l’aspect technique qui représente probablement un pareto (20% des points pour le référencement), c’est principalement le contenu (80% des points pour le référencement) qui permet de se hisser dans les résultats de recherche. En bref, il faut automatiser son contenu pour en produire en masse sans se faire pénaliser, car ils traquent désormais le contenu généré par IA. En tout cas, il existe une belle solution SEO, Cocoon qui permet de contourner l’inspection des robots Google pour être bien référencé.