Matt Cutts vient d’annoncer la mise à disposition d’un nouveau formulaire anti-scraper. L’objectif de Google est de proposer aux webmasters un outil permettant de dénoncer les vols de contenu, une pratique plus connue sous le terme de scraping, et dont les conséquences sont très pénalisantes pour les éditeurs en matière d’indexation sur les moteurs de recherche.

Le scraping, une pratique devenue depuis la « bête noire » de Google

Black hatLe scraping est de nouveau dans le collimateur de Google. Il s’agit d’une méthode de référencement qui consiste à « pomper » le contenu éditorial d’un site afin de les exploiter et de les publier par la suite sur une autre plateforme sans l’autorisation du « propriétaire ». Généralement, le contenu dupliqué s’affiche en bonne position dans les SERP. L’éditeur d’origine se trouve ainsi doublement pénalisé : son contenu perd de son originalité et en classement.

Ainsi pour lutter contre cette pratique « Black hat », Google a mis en place un formulaire anti-scraper, baptisé Scraper Report, qui s’adresse en particulier aux éditeurs.

Comment ça marche ?

La prise en main de cet « outil » est toute simple. Il suffit d’indiquer l’URL du contenu original (le contenu de votre site donc),  l’URL de la page incriminée et le résultat de la recherche effectuée sur Google sur lequel est indexé le plagiat.

Une procédure assez floue cependant

Reste à savoir maintenant comment ces informations seront traitées. En effet, Google ne précise ni les mesures qu’il va entreprendre, ni le devenir des informations recueillies via cet outil anti-scraper. Les professionnels du SEO se demandent si les ingénieurs de Mountain View vont affiner leur algorithme afin de recadrer les SERP sur la base des données récoltées ou adopter d’autres dispositions. Une affaire à suivre donc…

Une autre alternative pour lutter contre le scraping : faire confiance à un référenceur White hat

Contrairement à un référenceur Black hat, un expert en référencement internet White hat veille au respect des guidelines de Google en bannissant ces pratiques qui peuvent avoir des impacts négatifs sur la réputation des sites. D’ailleurs, il faut noter que ces techniques reposant sur du contenu détourné ou dupliqué ne sont en rien pérennes, puisque cela n’apporte aucune valeur ajoutée aux internautes.

Leave a Reply

Your email address will not be published.