Bonjour,
J'essaie de faire une copie d'un site sur mon disque dur avec wget. Tout est correctement copié sauf les images. J'ai essayé les options suivantes :
- -r : "Turn on recursive retrieving."
- -p : "This option causes Wget to download all the files that are necessary to properly display a given HTML page. This includes such things as inlined images, sounds, and referenced stylesheets.".
- -m : " Turn on options suitable for mirroring. This option turns on recursion and time-stamping, sets infinite recursion depth and keeps FTP directory listings."
Il s'agit du site "http://www.allaboutcircuits.com" et je voudrais les parties "http://www.allaboutcircuits.com/vol_1" et "http://www.allaboutcircuits.com/vol_2".
Lorsque je regarde les liens depuis le site des images, il s'avère qu'elles sont stockées sur un autre nom de domaine (http://sub.allaboutcircuits.com). Est-ce que wget, se limite à un seul nom de domaine ? Pourtant, l'option -p devrait fonctionner, non ? J'ai essayé de copier les fichiers de ce nom de domaine là mais l'accès est limités : on peux prendre un fichier précis mais pas tout les fichiers d'un répertoire (403 Forbidden). Logiquement wget connait les noms des images et les prendre une par une et donc il ne devrait pas y avoir de problèmes ... Alors pourquoi ne le fait-il pas ?
Ensuite, je voudrais pouvoir convertir tout le site en ps ou pdf de sorte à pouvoir facilement imprimer. J'ai essayé hmtl2ps, mais encore une fois je ne suis pas parvenu à avoir un résultat. J'ai bien un fichier ps mais impossible de l'ouvrir ...
Avant de passer encore du temps sur ce problème, pouvez-vous me dire si ce que je veux faire est possible et éventuellement comment le faire ? Meri d'avance !