Vous n'êtes pas identifié(e).
Bonjour tout le monde !
j'ai une question un peu technique sur laquelle je cogite depuis un petit moment et j'aimerais vos avis et vos retours d'XP concernant la désindexation d'un grand nombre de pages.
Le pitch :
Je travaille sur un site qui a vraiment beaucoup (trop ?) de pages indexées (179000 via la commande site de Google et la search console...)
La grande majorité de ces pages sont des pages qui présentent une société (type annuaire) mais avec peu de contenu pertinent (moins de 100 mots/page (nom, adresse, contact société) + quelques actualités (reprise des métas desc depuis une recherche sur le nom de cette sté...) avec les liens externes en nofollow (quand mm)
Bref des pages de contenu pas franchement "SEO friendly" et cela en très grand nombre.
J'ai démarré l'implémentation d'un petit lexique (bien rédigé et propre) sur le site d'une vingtaine de termes autour de ma thématiques + 5 pages clés que je souhaite positionner sur une expression moyennement concurrentielle..
Ma question est la suivante :
En sachant que Google prend en compte le nombre de page indexées dans ses critères de recherches (mais qu'à mon avis trop de pages de mauvaises qualité peuvent tuer l'indexation de ton site...) Si je choisis de désindexer les pages société - soit 90% de mon site - (via une meta noindex)
1. pour faciliter le crawl des robots sur les pages clés (avec du meilleur contenu) uniquement
2. dans l'objectif de conserver plus de jus (via qq BL implémentés) vers celles-ci.
Je resterai alors avec une centaine de pages à indexer (à bon contenu) VS + 100 000
=> L'impact sera t-il positif ou négatif sur les positions ?
Si vous avez des éléments de réponses à m"apporter c'est cool
Merci d'avance
🔴 Hors ligne
Franchement c'est une bonne approche !
Mais ces pages sont elles apporteuses de trafic organique ou pas (et là oui faut économiser le crawl vers des pages pertinentes) ?
🔴 Hors ligne
De mon côté je suis sur la même approche que toi mais sur un site qui a seulement 2500 pages, j'ai lancé ça sur 1800 pages à désindexer.
Au niveau de la démarche si les pages peuvent être reliées à une catégorie "pertinente" de ton site fait une redirection via ton HTAccess.
Ensuite mets bien "noindex" et tu peux également bloquer le crawl de ces pages via robots.txt, si il y a une taxinomie particulière du type "http://www.monNDD.com/boutiques" ou un truc du genre ;-)
Après je pense qu'en effet, plus le site dans sa totalité est "pertinent" et mieux tu devrais te positionner. Si en revanche tu as 100k pages bas de gamme Google va t'épingler site sans contenu ou très peu, peu pertinent, etc...
Enfin ce n'est que mon avis
Le SEO est un travail de chien... Tu passes beaucoup de temps à renifler le cul de tes concurrents et quand tu ne le fais pas tu grattes, tu grattes, tu graaaaattes en espérant tomber sur un truc sympa et parfois tu tombes sur un os ! Mais c'est pas grave, c'est ce que tu recherchais, non ? :-D
- - - - - - - -
Tu recherches du BL pour du tiers 2 ? C'est par ici : www.myback.link
🔴 Hors ligne
Bonjour tout le monde !
j'ai une question un peu technique sur laquelle je cogite depuis un petit moment et j'aimerais vos avis et vos retours d'XP concernant la désindexation d'un grand nombre de pages.
Le pitch :
Je travaille sur un site qui a vraiment beaucoup (trop ?) de pages indexées (179000 via la commande site de Google et la search console...)
La grande majorité de ces pages sont des pages qui présentent une société (type annuaire) mais avec peu de contenu pertinent (moins de 100 mots/page (nom, adresse, contact société) + quelques actualités (reprise des métas desc depuis une recherche sur le nom de cette sté...) avec les liens externes en nofollow (quand mm)Bref des pages de contenu pas franchement "SEO friendly" et cela en très grand nombre.
J'ai démarré l'implémentation d'un petit lexique (bien rédigé et propre) sur le site d'une vingtaine de termes autour de ma thématiques + 5 pages clés que je souhaite positionner sur une expression moyennement concurrentielle..
Ma question est la suivante :
En sachant que Google prend en compte le nombre de page indexées dans ses critères de recherches (mais qu'à mon avis trop de pages de mauvaises qualité peuvent tuer l'indexation de ton site...) Si je choisis de désindexer les pages société - soit 90% de mon site - (via une meta noindex)
1. pour faciliter le crawl des robots sur les pages clés (avec du meilleur contenu) uniquement
2. dans l'objectif de conserver plus de jus (via qq BL implémentés) vers celles-ci.Je resterai alors avec une centaine de pages à indexer (à bon contenu) VS + 100 000
=> L'impact sera t-il positif ou négatif sur les positions ?
Si vous avez des éléments de réponses à m"apporter c'est cool
Merci d'avance
tes pages sociétés ne t'apportent vraiment rien ?
Ni en visibiltié, ni en trafic ?
Le noindex diminue le crawl mais ne l'empêche pas.
Si j'etais toi, je regarderai les logs pour voir quel type de pages Google crawle.
Si tu vois que tes pages sociétés sont énormément crawlées (qu'elles ont une grande fréquence de crawl, cad, la page est crawlée plusieurs fois par jour), je m'en serverai pour justement faire des liens vers les pages propres.
Elles me serviraient de support pour valoriser les autres pages.
Si les pages ne sont pas énormément crawlées (et pas de visites seo), tu peux les supprimer.
🔴 Hors ligne
Merci Razbithume -
- Je pensais que le noindex était la solution la plus performante pour ne pas indexer les pages (après la suppresion bien sur) car avec le robots.txt, c'est un peu gg qui décide (ou pas) de crawler la page.
- Puis-je te demander quel outil tu conseilles pour vérifier les logs ?
Je pensais simplement regarder le trafic analytics et tirer les conclusions (virer les pages sans trafic), mais j'aime bien ton idée sur les liens internes
🔴 Hors ligne
Si elles sont beaucoup crawler et quelle apporte rien perso je ferais plutot un blocage dans le robots pour le crawl budget. Pour le PageRank tu cache les liens par d'obfuscation ou cloacking qui pointent sur ces pages.
🔴 Hors ligne
Merci Razbithume -
- Je pensais que le noindex était la solution la plus performante pour ne pas indexer les pages (après la suppresion bien sur) car avec le robots.txt, c'est un peu gg qui décide (ou pas) de crawler la page.
- Puis-je te demander quel outil tu conseilles pour vérifier les logs ?
Je pensais simplement regarder le trafic analytics et tirer les conclusions (virer les pages sans trafic), mais j'aime bien ton idée sur les liens internes
au départ, je faisais à la mano
Puis splunk... c'est assez rapide est bcp plus simple à installer que logstash/kibana.
J'ai pas testé screaming frog version logs....
Sinon j'ai l'opportunité d'avoir Botify à mon travail, ca aide
🔴 Hors ligne