Vous n'êtes pas identifié(e).
Hello,
J'ai une petite problématique à vous sousmettre:
Le filtre à facette d'un PrestaShop génère quelques centaines de milliers d'url.
Les url (ne comportant de base pas de balise noindex) on été visité par les bots de Google et se retrouves à différents satutut dans la search consol, j'ai l'imoression que c'est un beau bazard pour Google)
Je pense procéder de la façon suivante:
1. mettre les url des résultats des filtres en no index (les url sont de type site/nomcatégorie/q?=
2. Faire une demande de de suppression temporaire dans la search console.
Ma question est la suivant:
- est-ce que vous voyez une meilleur solutions ?
- est-ce que que la search permet dans l'outil de suppression temporaire de prendre en compte les regex ? (de base il propose de prendre une url ou une url "débutant par"
Pas de SEO sans un minimum d'EGO
🔴 Hors ligne
Même souci chez moi. Malgré un blocage dans robot.txt, certaines url ont été indexés. J'ai supprimé temporairement les urls dans GSC mais ça ne change rien. Pas d'incidence pour moi sur le SEO alors que le problème est apparu vers juillet. Je suis passé de 200 pages indexées à plus de 30 000. Comme les pages en question sont bloqués via le module noindex et via le robot.txt, je crois qu'elles ne sont pas crawlées.
🔴 Hors ligne