Bonjour à tous !
Petite question pour le noob que je suis...
En faisant une grosse analyse d'un site via GSC, je me rends compte que j'ai plein d'URL d'indexées qui n'ont rien à faire là et notamment des URL avec des filtres et autres choses "dynamiques".
En effet, j'ai 2 URL avec à la fin un "add-to-cart" qui sont indexées et plus d'une trentaine avec un système de notation "ivrating=5".
Je cherche donc à bloquer totalement l'indexation pour ce genre de page mais également pour d'éventuels filtres et ou page numéro 2/3 etc. (Du genre : /categorieproduit/categorieune/page/2).
Comment dois-je procéder ?
Merci d'avance,
Alex
🔴 Hors ligne
Hello,
Je dirai d'utiliser une 410 sur les urls que tu veux éviter que Google continue de crawler. Sur WP, j'utilisais le plugin "410 for WordPress" pour faire ca facilement perso (https://wordpress.org/plugins/wp-410/).
Dernière modification par Mcurly (2023-08-19 14:46:22)
🔴 Hors ligne
Hello Mcurly,
Merci pour ton retour !
Le problème, c'est que les pages ne peuvent pas être supprimées... En regardant ce que tu me proposes, je suis tombé sur un article qui expliquait tout ça avec cette méthodo :
1.Supprimer votre page
2.Intégrer le code de réponse 410
3.Demander à Google d'explorer la page
4.Attendre qu'il l'explore
5.Demander la désindexation sur Google Search Console
6.Bloquer la page dans le robots.txt
Sauf que moi, vu qu'il s'agit uniquement d'un critère de la page (filtre, etc.), la page en elle-même ne peut pas être supprimée.
Merci d'avance,
Alex
🔴 Hors ligne
Hello,
410 me semble une bonne solution car ca transmet à google le message que la page n'existe plus de manière définitive, contrairement à une 404 (que tes urls ont par défaut si elles n'existent pas).
Tu n'a pas besoin de supprimer des pages (d'ailleurs la méthode que t'a trouvé me semble étrange, surtout le "Demander la désindexation sur Google Search Console"), mais juste ajouter ces urls en erreurs 410 (avec un htaccess ou un plugin par exemple), attendre (ou forcer) que Google passe dessus et normalement Google ne devrait plus repasser dessus et reporter des erreurs 404. S'ils y a beaucoup d'urls touchées (par exemple une centaine), il faudra utiliser un regex dans ce cas là.
🔴 Hors ligne
🔴 Hors ligne
Bonjour,
Le mieux est de passer par le robots.txt avec une 410 pour les pages que tu ne veux plus voir. Pour les autres, type panier d'achat par exemple, tu peux ajouter un disallow dans le robots.txt, ce qui ne va pas désindexer la page, mais l'internaute sera moins tenté de cliquer.
Dernière modification par Nicolas (2023-08-25 17:03:55)
Blog - www.tendances-seo.com
Above the fold!
🔴 Hors ligne