Vous n'êtes pas identifié(e).
Pages :: 1
Bonjour,
Après la mise à jour d'un de mes scripts, je me rends compte dans GWT que le gentil Google a décidé d'indexer des pages qui n'existent pas en passant de 1000 à 24 000 en 8 jours par exemple ...
En fait, ce sont toutes des pages de catégories paginées, en m'indexant des pages N° 164 alors que la catégorie n'a que deux pages
l'url de la catégorie principale est
url/nomdecategorie
et peut selon les ordres de triages devenir
url/nomdecategorie/nouveautes/2
url/nomdecategorie/populaire/2
(ce sont ces dernières urls à laquelle google ajoute des chiffres de manière exponentielle)
Il y a t il un moyen de bloquer ce processus ?
j'ai pensé mettre une canonical sur les pages catégories qui renverrait vers l'adresse principale url/nomdecategorie (du coup aucune des autres ne seraient indexées ) sachant que les pages qui sont sur les catégories ont leur propre url qui ne dépend pas de l'url des catégories ? un simple robots.txt suffirait-il ?
Qu'en pensez vous ?
Easy Peasy Lemon Squeezy
🔴 Hors ligne
Est ce que tu as réglé ce problème ?
Vaut mieux gérer ça sur le site que sur le robots.txt à mon avis.
Il y a peut être un petit souci de conception sur ton site. Une page qui n'existe pas devrait renvoyer une 404 et là tu n'a plus de pb, le souci c'est qu’apparemment la page existe pour Google, faut régler ça en ammont, avant de penser au canonical
🔴 Hors ligne
oui merci le souci a été réglé , justement en renvoyant des pages 404 sur les pages n'existant pas , mais merci pour les conseils
j'ai eu des notifs dans GWT mais je préfére cela qu'un nombre trop important de pages qui servent à rien
Easy Peasy Lemon Squeezy
🔴 Hors ligne
Pages :: 1