Les dernières évolutions de l’algorithme de Google semblent pénaliser les techniques d’optimisation SEO qu’il juge excessives. Ce changement a un impact significatif sur de nombreux sites d’information.
Une étude approfondie, s’appuyant sur les données d’Ahrefs, analyse les conséquences de ces mises à jour sur un panel de cinquante sites internet.
Zoom sur les pratiques de référencement SEO désormais considérées comme inappropriées.
Des dégradations du référencement SEO aux causes multiples
Pour ces médias en ligne, l’étude a mis en évidence une corrélation négative entre la diversité des ancres de texte ou lien d’ancrage (tels que « Contact », « Nous joindre » et « Envoyez-nous un message ») et le trafic des sites web.
Cette pratique, autrefois valorisée par les moteurs de recherche, semble aujourd’hui être perçue comme une technique de manipulation par la firme californienne. Cette nouvelle orientation est plutôt bien accueillie par les professionnels du secteur, qui pourront désormais se concentrer sur d’autres aspects de l’optimisation. La recherche de synonymes, de formulations équivalentes, etc. lors de la création de contenus est en effet une tâche particulièrement fastidieuse et chronophage.
De même, mettre régulièrement des pages à jour en se contentant de modifier les dates de publication pour faire croire à de la nouveauté est une mauvaise idée. Pour avoir des retombées positives sur le référencement naturel, la « fraîcheur » doit venir avec une réelle valeur ajoutée. En effet, les pages ayant maintenu de bonnes positions affichaient en moyenne 774 jours d’ancienneté, contre 273 jours pour celles des sites ayant été sanctionnés.
Dans un autre registre, les titres qualifiés de « clickbait », qui emploient des chiffres, des adjectifs hyperboliques et des formules alarmistes dans le but d’attirer les clics, ont été associés à un mauvais ranking. Google semble privilégier les titres descriptifs et transparents, qui donnent aux lecteurs une idée fiable du contenu proposé.
Enfin, le recours excessif aux balises structurées peut être mal perçu par les robots du moteur de recherches. Encore une fois, les sites les plus performants en SEO sont ceux sans fioritures, qui se concentrent sur l’essentiel.
Pour séduire Google, les contenus doivent être qualitatifs et pertinents
Sans être une révolution, le fait de s’appuyer sur le concept de « contenu utile » promu par Google qui met en garde contre les pratiques de manipulation des résultats de recherche, les auteurs de l’étude avancent l’hypothèse suivante : les algorithmes pénalisent systématiquement les pages dont ils estiment qu’elles ont été conçues uniquement pour attirer les clics.
Cette évolution des règles incite les créateurs de contenus à privilégier leur qualité et leur pertinence. Elle est conforme à la volonté du géant américain du web de fournir des informations intéressantes, exactes et à jour, qui répondent aux attentes des utilisateurs. La course à l’optimisation SEO exagérée pourrait ainsi être terminée.
Pour autant, les analystes invitent à la prudence quant à la généralisation des conclusions de cette étude, en raison de la taille limitée du panel. Ils rappellent également que d’autres facteurs exogènes, non mesurés dans le cadre de cette recherche, pourraient avoir un impact sur les baisses de trafic observées. Ils mettent ainsi la communauté en garde contre l’établissement de relations de causalité simplistes.