Vous n'êtes pas identifié(e).

  • Contributions :
  • Vos boîtes de messages privés sont vides.

🟣 Desindexation d'un grand nombre de pages sur un site


#1 2016-05-17 23:57:34

Mention tiopeaz
🥉 Grade : Scout

Auxiliaire
Inscription : 2015-09-09
Messages : 111
Likes : 1
Site Web

Desindexation d'un grand nombre de pages sur un site

Bonjour tout le monde !

j'ai une question un peu technique sur laquelle je cogite depuis un petit moment et j'aimerais vos avis et vos retours d'XP concernant la désindexation d'un grand nombre de pages.

Le pitch :

Je travaille sur un site qui a vraiment beaucoup (trop ?) de pages indexées (179000 via la commande site de Google et la search console...)
La grande majorité de ces pages sont des pages qui présentent une société (type annuaire) mais avec peu de contenu pertinent (moins de 100 mots/page (nom, adresse, contact société) + quelques actualités (reprise des métas desc depuis une recherche sur le nom de cette sté...) avec les liens externes en nofollow (quand mm)

Bref des pages de contenu pas franchement "SEO friendly" et cela en très grand nombre.

J'ai démarré l'implémentation d'un petit lexique (bien rédigé et propre) sur le site d'une vingtaine de termes autour de ma thématiques + 5 pages clés que je souhaite positionner sur une expression moyennement concurrentielle..

Ma question est la suivante :

En sachant que Google prend en compte le nombre de page indexées dans ses critères de recherches (mais qu'à mon avis trop de pages de mauvaises qualité peuvent tuer l'indexation de ton site...) Si je choisis de désindexer les pages société - soit 90% de mon site - (via une meta noindex)
1. pour faciliter le crawl des robots sur les pages clés (avec du meilleur contenu) uniquement
2. dans l'objectif de conserver plus de jus (via qq BL implémentés) vers celles-ci.

Je resterai alors avec une centaine de pages à indexer (à bon contenu) VS + 100 000

=> L'impact sera t-il positif ou négatif sur les positions ?

Si vous avez des éléments de réponses à m"apporter c'est cool

Merci d'avance

0
J'aime ❤️

🔴 Hors ligne

#2 2016-05-20 10:48:22

Mention david
🥉 Grade : Scout

AuxiliaireNarcissique
Inscription : 2016-02-16
Messages : 250
Likes : 3

Audit et Analyse

Re : Desindexation d'un grand nombre de pages sur un site

Franchement c'est une bonne approche !
Mais ces pages sont elles apporteuses de trafic organique ou pas (et là oui faut économiser le crawl vers des pages pertinentes) ?

0
J'aime ❤️

🔴 Hors ligne

#3 2016-05-20 11:10:25

Mention Zakstan
🥈 Grade : Soldier

Membre du CercleOfficierNarcissiqueStratègeBusiness Man10likes1000 messagesMembre Hospitalier
Lieu : Lille
Inscription : 2015-09-12
Messages : 1 778
Likes : 33

Sémantique
Rédaction
Marketing
Comunity Management
Site Web

Re : Desindexation d'un grand nombre de pages sur un site

De mon côté je suis sur la même approche que toi mais sur un site qui a seulement 2500 pages, j'ai lancé ça sur 1800 pages à désindexer.
Au niveau de la démarche si les pages peuvent être reliées à une catégorie "pertinente" de ton site fait une redirection via ton HTAccess.
Ensuite mets bien "noindex" et tu peux également bloquer le crawl de ces pages via robots.txt, si il y a une taxinomie particulière du type "http://www.monNDD.com/boutiques" ou un truc du genre ;-)
Après je pense qu'en effet, plus le site dans sa totalité est "pertinent" et mieux tu devrais te positionner. Si en revanche tu as 100k pages bas de gamme Google va t'épingler site sans contenu ou très peu, peu pertinent, etc...
Enfin ce n'est que mon avis smile


Le SEO est un travail de chien... Tu passes beaucoup de temps à renifler le cul de tes concurrents et quand tu ne le fais pas tu grattes, tu grattes, tu graaaaattes en espérant tomber sur un truc sympa et parfois tu tombes sur un os ! Mais c'est pas grave, c'est ce que tu recherchais, non ? :-D
-  -  -  -  -  -  -  -
Tu recherches du BL pour du tiers 2 ? C'est par ici : www.myback.link

0
J'aime ❤️

🔴 Hors ligne

#4 2016-05-24 22:00:38

Mention tiopeaz
🥉 Grade : Scout

Auxiliaire
Inscription : 2015-09-09
Messages : 111
Likes : 1
Site Web

Re : Desindexation d'un grand nombre de pages sur un site

Merci pour vos retours ! je vous tiens au courant wink

0
J'aime ❤️

🔴 Hors ligne

#5 2016-05-25 08:18:27

Mention razbithume
🥉 Grade : Scout

AuxiliaireStratègeMembre Hospitalier
Inscription : 2013-09-17
Messages : 827
Likes : 1

Audit et Analyse
Scraping
Marketing
Site Web

Re : Desindexation d'un grand nombre de pages sur un site

tiopeaz a écrit :

Bonjour tout le monde !

j'ai une question un peu technique sur laquelle je cogite depuis un petit moment et j'aimerais vos avis et vos retours d'XP concernant la désindexation d'un grand nombre de pages.

Le pitch :

Je travaille sur un site qui a vraiment beaucoup (trop ?) de pages indexées (179000 via la commande site de Google et la search console...)
La grande majorité de ces pages sont des pages qui présentent une société (type annuaire) mais avec peu de contenu pertinent (moins de 100 mots/page (nom, adresse, contact société) + quelques actualités (reprise des métas desc depuis une recherche sur le nom de cette sté...) avec les liens externes en nofollow (quand mm)

Bref des pages de contenu pas franchement "SEO friendly" et cela en très grand nombre.

J'ai démarré l'implémentation d'un petit lexique (bien rédigé et propre) sur le site d'une vingtaine de termes autour de ma thématiques + 5 pages clés que je souhaite positionner sur une expression moyennement concurrentielle..

Ma question est la suivante :

En sachant que Google prend en compte le nombre de page indexées dans ses critères de recherches (mais qu'à mon avis trop de pages de mauvaises qualité peuvent tuer l'indexation de ton site...) Si je choisis de désindexer les pages société - soit 90% de mon site - (via une meta noindex)
1. pour faciliter le crawl des robots sur les pages clés (avec du meilleur contenu) uniquement
2. dans l'objectif de conserver plus de jus (via qq BL implémentés) vers celles-ci.

Je resterai alors avec une centaine de pages à indexer (à bon contenu) VS + 100 000

=> L'impact sera t-il positif ou négatif sur les positions ?

Si vous avez des éléments de réponses à m"apporter c'est cool

Merci d'avance

tes pages sociétés ne t'apportent vraiment rien ?
Ni en visibiltié, ni en trafic ?

Le noindex diminue le crawl mais ne l'empêche pas.

Si j'etais toi, je regarderai les logs pour voir quel type de pages Google crawle.
Si tu vois que tes pages sociétés sont énormément crawlées (qu'elles ont une grande fréquence de crawl, cad, la page est crawlée plusieurs fois par jour), je m'en serverai pour justement faire des liens vers les pages propres.
Elles me serviraient de support pour valoriser les autres pages.

Si les pages ne sont pas énormément crawlées (et pas de visites seo), tu peux les supprimer.


Vive les regex et le xpath !

0
J'aime ❤️

🔴 Hors ligne

#6 2016-05-25 17:18:40

Mention tiopeaz
🥉 Grade : Scout

Auxiliaire
Inscription : 2015-09-09
Messages : 111
Likes : 1
Site Web

Re : Desindexation d'un grand nombre de pages sur un site

Merci Razbithume -

- Je pensais que le noindex était la solution la plus performante pour ne pas indexer les pages (après la suppresion bien sur) car avec le robots.txt, c'est un peu gg qui décide (ou pas) de crawler la page.

- Puis-je te demander quel outil tu conseilles pour vérifier les logs ?
Je pensais simplement regarder le trafic analytics et tirer les conclusions (virer les pages sans trafic), mais j'aime bien ton idée sur les liens internes

0
J'aime ❤️

🔴 Hors ligne

#7 2016-05-25 17:40:11

Mention Mitsu
🥉 Grade : Scout

AuxiliaireIngénieur webStratège1000 messagesMembre Hospitalier
Inscription : 2014-11-17
Messages : 2 012
Likes : 9

Développement PHP
Développement JS
Audit et Analyse
Netlinking
Site Web

Re : Desindexation d'un grand nombre de pages sur un site

Si elles sont beaucoup crawler et quelle apporte rien perso je ferais plutot un blocage dans le robots pour le crawl budget.  Pour le PageRank tu cache les liens par d'obfuscation ou cloacking qui pointent sur ces pages.

0
J'aime ❤️

🔴 Hors ligne

#8 2016-05-26 08:37:28

Mention razbithume
🥉 Grade : Scout

AuxiliaireStratègeMembre Hospitalier
Inscription : 2013-09-17
Messages : 827
Likes : 1

Audit et Analyse
Scraping
Marketing
Site Web

Re : Desindexation d'un grand nombre de pages sur un site

tiopeaz a écrit :

Merci Razbithume -

- Je pensais que le noindex était la solution la plus performante pour ne pas indexer les pages (après la suppresion bien sur) car avec le robots.txt, c'est un peu gg qui décide (ou pas) de crawler la page.

- Puis-je te demander quel outil tu conseilles pour vérifier les logs ?
Je pensais simplement regarder le trafic analytics et tirer les conclusions (virer les pages sans trafic), mais j'aime bien ton idée sur les liens internes

au départ, je faisais à la mano tongue

Puis splunk... c'est assez rapide est bcp plus simple à installer que logstash/kibana.
J'ai pas testé screaming frog version logs....

Sinon j'ai l'opportunité d'avoir Botify à mon travail, ca aide wink


Vive les regex et le xpath !

0
J'aime ❤️

🔴 Hors ligne

Pied de page des forums