Vous n'êtes pas identifié(e).
Hello,
j'aime crawlé les bas fonds du web pour trouver des sites abandonnés et les remonter.
Il existe une palette de méthodes pour le faire, outils payants, gratuits, celle que je préfère - gratuite et rapide, c'est le script Ruby Wayback Machine Downloader à lancer en ligne de commande : https://github.com/hartator/wayback-machine-downloader.
Seul hic plutôt emmerdant, c'est que dans +80% des cas les liens sont en absolu et qu'en local la navigation est impossible (il faut ouvrir fichier par fichier pour pouvoir afficher les pages scrapées, une galère...)
Question : qqun utilise-t-il ce script ? Si oui, excepté la méthode "search & replace" du ndd par le dossier racine, n'y a t il pas une méthode plus rapide pour parer à ce problème ?
Merci
🔴 Hors ligne
Salut
J'utilise aussi ce script et comme toi je galère un peu.
J'imagine qu'il doit être possible de faire tourner un script ou autre pour corriger en automatique.
🔴 Hors ligne
🔴 Hors ligne