Vous n'êtes pas identifié(e).
Salut le forum,
La boite pour qui je bosse a une problématique relativement simple mais je ne suis pas sûr de la meilleure solution à employer ici.
Le site a une trentaine de pages en ligne sans erreur. Rien de plus, rien de moins, que ce soit un scan screaming frog, google search console ou autre.
Pourtant quand j'essaie un site:domaine, google me crache entre 140 et 255 résultats casi tous en 404. Ce serait d'anciennes pages désormais toutes supprimées (depuis longtemps) avec aucun travail de linking à priori et inaccessibles.
Comment désindexer proprement ces pages ? J'ai retenu deux possibilités :
- Demander le retrait par la google search console : le plus efficace mais long.
- Envoyer un sitemap contenant toutes les url pour les faire scanner par le bot et espérer une désindexation suite à la découverte des 404 par le bot.
Auriez vous une autre idée ou bien une recommandation ?
🔴 Hors ligne
Salut, tu as essayé de mettre en place des entêtes 410 au lieu des 404 ? Tu connectes le site sur seolizer pour voir le crawl des 410 et suivre l'évolution dans le temps. Google est censé les désindexer...
2008, Ghiata Pierre premier site et premier pas dans le SEO. Depuis le SEO ne m'a jamais quitté...
🔴 Hors ligne
J'ai rien essayé de ce coté puisque j'ai plus la main sur les pages je pensais pas que c'était possible.
🔴 Hors ligne