Vous n'êtes pas identifié(e).
Bonjour la team
Je réalise un audit en vue d'un entretien dans une agence (pas terrible comme pratique qu'on se le dise)
Bref je décide de le faire quand même. (J'apprends pleins de trucs c'est cool)
Je lance un craw avec oncrawl, xenu et semrush.
L'audit va bon train. Je suis content.
Je fais une petite vérif sur google pour voir ce qui ressort sur site:(et c'est le drame)
Et la je découvre des pages indexées dans Google que mes tools n'ont pas remontés.. tout mon audit est à reprendre !
Ces pages ne sont pas dans le sitemaps, elles n'ont pas directive du robots.txt.
J'ai pensé à des pages orphelines mais si c'est le cas il y en a énormément..
Et pourquoi mes tools ne les auraient pas remontés en tant que pages orphelines ?
Si une bonne âme passe par ici, je dis pas non à un petit coup de pouce pour éclaircir tout ça !
Belle soirée les amis
Dernière modification par adriensio (2019-08-16 07:02:30)
🔴 Hors ligne
Si c'est pas trop tard (au pire, pour info) :
Les crawlers ne voient que les pages accessibles par la navigation, donc les liens. Si une page est déconnectée du site, elle ne sera pas dans le crawl.
SEMrush peut à la rigueur repérer des orphelines si elles rankent (par son analyse de la recherche).
Un crawler peut seulement remonter des pages orphelines si on lui donne une 2e source d'URLs à regarder, typiquement Analytics, la SC ou les logs.
Au pire, un audit sur la partie visible du site c'est déjà bien Le site est représentatif de la vision du client, c'est ça qu'on propose d'améliorer. Les orphelines, c'est des résidus.
Qui commande ? La télé. La télé commande.
🔴 Hors ligne