Vous n'êtes pas identifié(e).

  • Contributions :
  • Vos boîtes de messages privés sont vides.

🟣 Duplicate content / canonical / robots.txt


#1 2017-07-27 07:49:14

Mention tartpion
♟️ Grade : Recruit

Disciple
Inscription : 2014-12-16
Messages : 27
Likes : 0

Re : Duplicate content / canonical / robots.txt

Salut,

Dans la pure théorie, tu n'as pas besoin de le faire, c'est le principe même d'une canonical, mais en vérité google alloue des ressources limitées à chaque site internet et donc moins il a de page a crawler mieux c'est pour ton site.

Je l'ai vérifié avec de l'analyse de log et j'ai remarqué que en bloquant avec robots.txt plutot que noindex (oui moi je me prend pas le choux) ben le robot augmente sa fréquence de crawl / page

fais le test et bloque avec robots.txt tu verras tout de suite la différence

Dernière modification par tartpion (2017-07-27 07:50:34)

0
J'aime ❤️

🔴 Hors ligne

#2 2017-07-27 09:28:42

Mention AhmedSEO
♟️ Grade : Recruit

DiscipleStratège
Lieu : Paris
Inscription : 2017-04-25
Messages : 21
Likes : 0

Scraping
Netlinking
Content Spinning
Développement PHP

Re : Duplicate content / canonical / robots.txt

Salut @ADNxtc,

Je te déconseille fortement de bloquer au robots.txt dans ton cas, tu vas te retrouver avec au moins 50% d'urls bloquées dans ton maillage, ce qui est mauvais pour ton seo. Et les robots ne verront pas non plus tes canonical sur ces pages dupliquées.

La canonical est une  solution. Quant à la perte de crawl, les robots réduiront de toute manière le crawl sur ces urls dupliquées grâce à la canonical. Une autre solution serait de gérer les variantes d'un même produit via des fragment dans les urls : /produit1#taille-m , /produit1#taille-s etc

Le blocage via robots.txt est pertinent dans d'autres cas, comme dit par tartpion, on a pas de perte

0
J'aime ❤️

🔴 Hors ligne

#3 2017-07-27 12:01:36

Mention xcepty
🥉 Grade : Scout

AuxiliaireForce PolyvalenteIngénieur web
Inscription : 2015-04-27
Messages : 53
Likes : 0

Audit et Analyse
intégration Html Css
Marketing
Développement PHP

Re : Duplicate content / canonical / robots.txt

Pour confirmer ce qui est dit avant également. En plus de casser le crawl, tu donnes une image claire au moteur du type : J'ai 200 pages mais seulement 50 sont pertinentes. Une canonical peut faire l'affaire, le fragment est idéal.


skype : blaise.clement

0
J'aime ❤️

🔴 Hors ligne

Pied de page des forums