Comment résoudre les principaux problèmes de profondeur de page en SEO

Profondeur de page et SEO

En SEO, la profondeur d’une page correspond au nombre de clics nécessaires pour passer de la page d’accueil à une autre page interne du site.

Ce facteur est important pour sa visibilité, car les robots des moteurs de recherche ne crawlent pas les pages ayant une PageRank faible ou inexistante. Elles ont donc peu de chance d’apparaître dans les résultats.

Découvrons les principaux problèmes de profondeur et les astuces pour y remédier.

 

Mauvaise pagination

Certaines pages ne comprennent qu’un petit nombre d’éléments ou au contraire une longue liste (produits, articles, évaluations de produits, commentaires des utilisateurs…).
Or, lorsque le système de pagination ne donne accès qu’à quelques pages à chaque fois, une bonne partie d’entre elles se retrouve à plus de 10 clics de profondeur. Conséquence : les robots ne les voient pas, surtout si ces contenus sont accessibles uniquement via cette longue liste.

Il y a aussi les pages profondes dont le contenu n’influe pas sur le référencement SEO. Par exemple parmi les commentaires utilisateurs, seuls ceux qui sont suffisamment longs ou ont été jugés « utiles » par les autres internautes doivent être mis en avant.

Les meilleures parades pour préserver l’optimisation de son site face à une telle situation consistent à :

  • affiner les catégories ou utiliser des filtres, mais sans excès (cf. paragraphe suivant) afin d’obtenir des listes réduites ;
  • intégrer davantage d’éléments par page ou augmenter le nombre de liens menant à d’autres pages (10, 50…) ;
  • ajouter des balises aux liens de pagination pour indiquer aux robots de ne pas explorer les pages profondes, surtout si elles sont nombreuses et peu qualitatives, voire inutiles. Cela permet de focaliser le crawlbudget vers les contenus de qualité, ce qui contribue à bien référencer son site.

Abondance de filtres de navigation

La combinaison de filtres multiples peut générer du trafic organique, mais la plupart du temps, elle entraîne la création par les robots d’un gros volume de nouvelles pages.

  • Pour l’éviter, il est préférable de réduire les liens accessibles aux robots aux listes qui comportent deux filtres simultanés au maximum. Au-delà (combinaisons de 3 filtres ou plus), le risque d’avoir des listes vides augmente.
  • Dans le cas où une combinaison de plus de deux filtres présente un potentiel de trafic, il suffit d’ajouter manuellement un lien.

Présence de paramètres de tracking dans les URL

Sur certaines pages, l’URL contient un paramètre qui indique la page interne du site d’où vient l’utilisateur. C’est notamment le cas sur les pages qui proposent des « produits associés » ou « articles connexes ». Ce système crée une masse d’URLs avec des duplicatas de pages importantes, pénalisant ces dernières.

Pour l’éviter, il existe deux méthodes :

  • déplacer le paramètre (par exemple « ?source=cettepage ») après un « # » en fin d’URL, où il n’a pas d’impact ;
  • rediriger les URL incluant un paramètre de tracking vers la version « neutre » de l’URL.

Anomalie dans la forme d’une URL

Il arrive que dans certaines URLs, un élément manque ou se répète. Au lieu de rediriger vers une page existante, ces liens mal formés renvoient un statut code HTTP 404 (page non trouvée) ou génèrent un grand nombre de duplicatas, souvent de contenus clés.
En conséquence, le moteur relègue les pages doublons en fin de ses pages de résultats. Si l’une des pages importantes du site (les pages de conversion) fait partie de celles déclassées, les répercussions sur le référencement naturel du site sont dramatiques en matière de visibilité auprès de son audience, de son taux de conversion, de son implication sur le panier et  le volume des ventes, etc.

Il faut donc corriger ces liens défaillants et les faire pointer vers la bonne URL (code HTTP 301 pour une redirection permanente) ou renvoyer un statut « page non trouvée » (code HTTP 404), le temps que les robots cessent de passer sur ces pages.

De même, certains templates comme le bouton « jour suivant » ou « mois suivant » sur un calendrier produisent systématiquement une nouvelle URL et il n’est possible d’avancer que d’une page à la fois lors de la navigation. Ce problème de « lien perpétuel » peut être résolu par la définition d’une valeur de fin.

Consultez le blogs pour d’autres informations SEO

 

Laisser un commentaire

Votre adresse email ne sera pas publiée.