Vous n'êtes pas identifié(e).
Salut,
Je dois nettoyer plus de 3 millions d'URl dupliquée dans l'index de Google créer suite à une mauvaise configuration du Menu à facette (plus de 10 critères).
Quelqu'un a déja nettoyer autant de lien dans Google ? Sinon vous connaissez une solution pour automatiser le nettoyage de l'index (Outils, presta...) ?
Merci d'avance
🔴 Hors ligne
Jamais testé, mais je dirais iMacros + GWT.
Work Hard In Silence, Let Success Make The Noise !
--> cedricguerin.fr
🔴 Hors ligne
Joli score !
Non rien d'automatisable à ma connaissance, c'est plus sûr de le faire à la mano. Je te comprends 3 millions ca doit être effrayant, ceci dit le format des url doit être toujours le même logiquement donc ca représente pas tant de règles que ca à déterminer. As tu la possibilité de supprimer le module à facettes ou bien est ce que le client tient à le garder (auquel cas ca va être plus compliqué) ?
En revanche là où ca va être un gros soucis c'est au niveau du temps que Google va prendre pour désindexer toutes ces urls. Tu vas en avoir pour des mois ! Tu sais combien d'url ont été indexées (pas les 3 millions quand même) ?
🔴 Hors ligne
pourquoi ne fais tu pas des redirections...
Dernière modification par davidc1 (2015-06-15 15:39:50)
skype: davidcz1
Service de backorders de domaines
Le PBN par prnator
🔴 Hors ligne
Cyd a écrit :Jamais testé, mais je dirais iMacros + GWT.
tu penses à quelle utilisation avec iMacro ?
--> hxxps://www.google.com/webmasters/tools/url-removal
C'est pris en compte et viré de l'index en moins de 48h en général. Mais à ma connaissance, tu peux soumettre soit le domaine entier, soit url par url ... d'où iMacros.
Work Hard In Silence, Let Success Make The Noise !
--> cedricguerin.fr
🔴 Hors ligne
🔴 Hors ligne
Imacro marche très bien pour supprimer des urls dans WMT en revanche de mémoire il te limite par jour à 500. A vérifier. Sinon claque plutot une balise noindex et laisse google crawler, il désindexe hyper vite.
www.audience-seo.com : Besoin de booster son trafic ?
🔴 Hors ligne
Faudrait avoir le détail des urls mais à priori il ne pourra pas mettre la balise no index car les paramètres se rajoutent à la fin de l'url catégorie en général sous prestashop avec les facettes. Il va donc perdre en même temps ses bonnes pages. En revanche tu peux mettre un canonical.
Sinon l'option que je te suggérais plus haut: quelques règles 301 dans l'htaccess si tu peux désactiver le module le temps de la suppression. Mais je doute que la désindexation soit rapide sur ces urls elles sont très/trop peu linkées sur le site, même en mettant un sitemap avec toutes les url pourries c'est long. L'option de Cyd sera plus efficace à ce niveau là.
🔴 Hors ligne
Sinon, la commande Noindex dans le robots.txt fonctionne. Mais je n'ai jamais testé à si grande échelle, ni pour des désindexations urgentes.
Je présume qu'en faisant passer googlebot sur robots.txt via gwt/gsc, ce sera lu rapidement.
En terme de perfs, c'est sans doute pas top, mais si on réduit le fichier juste après le passage de gg et la désindesxation effective (en priant pour que ça se fasse très rapidement), ça peut peut-être le faire. A tester.
🔴 Hors ligne
Joli score !
Non rien d'automatisable à ma connaissance, c'est plus sûr de le faire à la mano. Je te comprends 3 millions ca doit être effrayant, ceci dit le format des url doit être toujours le même logiquement donc ca représente pas tant de règles que ca à déterminer. As tu la possibilité de supprimer le module à facettes ou bien est ce que le client tient à le garder (auquel cas ca va être plus compliqué) ?
En revanche là où ca va être un gros soucis c'est au niveau du temps que Google va prendre pour désindexer toutes ces urls. Tu vas en avoir pour des mois ! Tu sais combien d'url ont été indexées (pas les 3 millions quand même) ?
Il y a bien 3 millions de pages à Supprimer le site est passsez de 2 millions à 5 millions de pages indexé en quelques semaines à cause en parti du Menu à facette.
@Kankun T'aurais un skype ? je peux pas envoyer de MP
🔴 Hors ligne
Non c un soucis que d'autres membre du forum ont
Parfait pour la mail
Merci
🔴 Hors ligne
🔴 Hors ligne
Tiens j'avais posté ce script dans la section imacro :
http://scripts-seo.com/topic-2900-faire-une-demande-de-supression-d-url-dans-webmaster-tools-avec-imacro-page-1.html
°¨¨°³º¤£ [ COOLBYTES ] £¤º³°¨¨° - Skype: cb_nalex_levrai
🔴 Hors ligne
Perso, pour ce travail, je fait un export complet de l'index de google avec des centaines de mots et footprint footprint :
site:monsite.com a
site:monsite.com b
...
site:monsite.com/macat a
site:monsite.com/macat a
...
site:monsite.com "pas cher"
site:monsite.com "nomdusite"
Etc.
Arnaud BOYER, eMarketing Manager @ Label Group
🔴 Hors ligne
Le problème que ça pose c'est la dilution du crawl budget, pas tellement que ce soit indexé non ?
Tu pourrais juste utiliser les canonial pour envoyer vers les pages sans filtres.
Puis, une fois que google les à toutes crawlé, là tu peux tout passer tous tes paramètres de navigation à facette dans le robots.txt pour être sur qu'il ne perd pas son temps bêtement sur ces pages.
Avant de les mettre dans le robots, tu peux juste vérifier que tu n'as plus de trafic provenant de google vers ces pages.
Dernière modification par Mitsu (2016-01-21 15:14:59)
🔴 Hors ligne
Fais très attention avec l'outil de suppression des urls. Tout dépend du type d'urls qui ont été créé. Le risque est de supprimer à la fois les bonnes et mauvaises versions des pages.
Source : https://support.google.com/webmasters/answer/1663419?hl=en&rd=1
J'ai une autre technique en tête, mais il faut savoir que je n'ai jamais essayé.
Deux étapes :
1) placer meta robots noindex sur les pages en question
2) Amener Google dessus
Tu peux répartir les urls sur différents sitemap.xml et le suggérer à Google.
L'idée c'est faire passer le bot, lui faire constater que c'est noindex. ça va bien bouffer le quota de crawl mais ça devrait bien marcher. Là aussis il faut faire bien gaffe que le noindex n'apparaisse que sur les mauvaises pages. ça a l'air évident, mais on est jamais trop prudent.
🔴 Hors ligne
Fais très attention avec l'outil de suppression des urls. Tout dépend du type d'urls qui ont été créé. Le risque est de supprimer à la fois les bonnes et mauvaises versions des pages.
+1 canonical !!!
Sur un projet où le cms ne me permettait pas de faire du canonique sur les filtres (fuck demandware) j'ai directement foutu du noindex dans le robots.txt : prise en compte en quelques jours (j'avais fait des fulx rss des filtres pou les balancer à google et que ça soit pris en compte rapidement)
Généralement, je me tiens loin de ces outils de la search console (paramètres d'url et outil de suppression)
Arnaud BOYER, eMarketing Manager @ Label Group
🔴 Hors ligne
Pour un site j'avais plus de 20 Millions de pages de recherche indexées en Duplicate ou Near Duplicate.
Solution mise en place :
- Canonical des URLs qu'on voulait garder qui était en DC
- NoIndex des autres
Résultats : 13 Millions de pages désindexées en 2 mois (environ)
Je ne sais pas si la solution est applicable dans ton cas, mais le combo : Canonical + noindex fonctionne.
"Deux choses sont infinies, l'univers et la bêtise humaine. Pour l'univers, j'en suis pas sur ..."
🔴 Hors ligne