Vous n'êtes pas identifié(e).
Google vient de publier le code source de son parser de fichier robots.txt : hxxps://opensource.googleblog.com/2019/07/googles-robotstxt-parser-is-now-open.html
On peut donc le réutiliser pour s'assurer que nos fichiers robots.txt fonctionnent, mais surtout y trouver quelques règles qu'ils prennent en compte.
Le code est là : hxxps://github.com/google/robotstxt
Trucs marrants :
"disalow" fonctionne
"diasllow" aussi
source : hxxps://github.com/google/robotstxt/search?q=disalow&unscoped_q=disalow
Par contre, et c'est peut-être un "scoop", je ne trouve pas de directive "noindex" !
Donc ce genre de chose hxxp://robots-txt.com/ressources/robots-txt-noindex/ ne fonctionne pas au niveau du parser.
Il faut bien faire des "noindex" sur les pages et pas dans robots.txt pour être sûr à 100% de son coup.
Dernière modification par NicolasWeb (2019-07-02 08:57:04)
🔴 Hors ligne
Merci pour ce retour, grâce à ta confirmation ça nous évitera de nous faire indexer notre petit jardin secret SEO
Faire plus avec moins en utilisant mes outils préférés :::> The show must go on
🔴 Hors ligne
@NicolasWeb en même temps, faut bien avouer que d'annoncer à tous : Surtout n'allez pas voir ce répertoire, c'était déjà une démarche un peu bizarre.
Sinon le coup du disalow, disallow, diasllow... Que faut il en déduire, y a des dyslexiques chez les webmasters ??
Rejoignez-moi sur : Serpzilla > ZennoPoster > PlanetHoster > Appsumo
Soyez réalistes : Demandez l'impossible !
Ⓢ②ⓅⓇⓄⒹ
🔴 Hors ligne