Bonjour à tous.
Je ne sais pas si il y a des expert de prestashop ici, mais j'ai deux souci au sujet de sont dur crawl
sont crawlé les pages du type :
http://www.mon-nom-domaine.com/?rand=xxxxxxxxx
avec le xxxx qui change à chaque fois?
du coup dans watussi_box il me donne par exemple 50 nouvelle page de crawlé de ce type...
Ce qui est stupide car on perd de la puissance de crawl pour rien.
En est il de meme chez vous?
Google … ahahahahha
🔴 Hors ligne
Salut,
Es-tu sur que ces urls ne sont pas linkées sur ton site ?
Tu peux toujours les bloquer dans le robots.txt
skype : m4rseo
http://www.marseo.fr
🔴 Hors ligne
Si ce sont les appel Ajax pour le panier, donc il sont crawler une fois.
Google … ahahahahha
🔴 Hors ligne
Ce n'est jamais la solution idéale, mais tu peux exclure ce paramètre dans GWT.
Work Hard In Silence, Let Success Make The Noise !
--> cedricguerin.fr
🔴 Hors ligne
je te remercie.
Mais à y réflechir, watussi le remonte, mais pas gg, donc ce n'est peut être pas grave?
Google … ahahahahha
🔴 Hors ligne
Si je ne dis pas de bêtise, si Watussi le remonte, c'est que Google vient crawler ces URLs. Donc c'est un problème.
Work Hard In Silence, Let Success Make The Noise !
--> cedricguerin.fr
🔴 Hors ligne
Exactement c'est pour cela que je pose la question.
Car du coup ca fait des centaine de nouvelle page découverte chaque jours.
Bon meme si elle n'apparaissent pas dans les serps
Google … ahahahahha
🔴 Hors ligne
Personne n'a constater la même chose ou personne n'utilise prestashop?
Google … ahahahahha
🔴 Hors ligne
Pas spécifiquement ce genre d'url avec rand en paramètre non mais le DUST c'est une vraie plaie sous Prestashop.
Dans ton cas il suffit de mettre une canonical sur ta home, si c'est pas déjà fait. Si c'est le cas les url n'ont pas dû être indexées.
Si tu n'avais pas encore de canonical tu en installes une et comme Cyd te l'a suggéré, indique à google de ne pas tenir compte de ces urls dans GWT.
Il faudrait vérifier si certaines urls ont déjà été indexées. Regarde dans GWT s'il t'indique plusieurs pages :
- s'il n'y en a pas tu peux mettre un disallow sur ta page http://www.mon-nom-domaine.com/?rand=, (même juste le paramètre rand voire n'importe quel paramètre mais là faudrait voir comment est organisé ton site avant)
- s'il y en a désindexe les d'abord (tu peux faire une page temporaire spécifique avec un lien vers chacune par exemple, ou sur le plan du site) et lorsque c'est fait met le disallow dans robots.txt. Si tu le fais avant google ne les désindexeras pas.
Logiquement ca devrait éviter l'indexation et le DC de ces pages. L'idéal serait que tu règles le problème définitivement dans le code source.
Dernière modification par Kankun (2015-06-14 16:48:18)
🔴 Hors ligne
Il en tiens pas compte et ne les indexe pas.
Mais ca m'agace qu'il les crawl..
Google … ahahahahha
🔴 Hors ligne
🔴 Hors ligne