Vous n'êtes pas identifié(e).
Bonjour à tous ?
J’espère que vous allez bien !
J’ai un petit soucis avec le crawl d’un site vitrine qui comporte plusieurs pages.
Lorsque je passe mon crawl screaming frog, j’obtiens une réponse « connexion refusée». Impossible de faire l’analyse du site avec SF.
Pourtant le site est bien indexé avec un total de 39 pages.
Auriez-vous une idée de ce que je dois chercher/modifier ?
Merci par avance pour votre aide
?
Le SEO en plus facile ! ouaip, grâce à ScriptSEO !
🔴 Hors ligne
Hello,
Tu peux tenter de modifier le user agent utilisé par SF : https://www.screamingfrog.co.uk/seo-spider/user-guide/configuration/
User agent
Configuration > User-Agent
The user-agent configuration allows you to switch the user-agent of the HTTP requests made by the SEO Spider. By default the SEO Spider makes requests using its own ‘Screaming Frog SEO Spider user-agent string.
However, it has inbuilt preset user agents for Googlebot, Bingbot, various browsers and more. This allows you to switch between them quickly when required. This feature also has a custom user-agent setting which allows you to specify your own user agent.
🔴 Hors ligne
Oui tu peux :
=> Modifier le User agent
=> Demander au site de whitelist ton ip s'ils ont un quelconque systeme de protection
=> Utiliser un proxy
🔴 Hors ligne