Malheureusement, ces types de problème, tu les trouveras avec tous les apsirateurs de site. C'est d'ailleurs la seul méthode plus ou moins efficace contre le leeching.
Les sites fait a base de scripting serveur posent des problème dès qu'il contiennent des paramètres cachés ou des formulaires. Certains comme teleport pro essaye de trouver des combinasonsons gagnante, mais c'est très rarement une réussite.
narcore
up
Sonic_SG
j'ai tjs utilisé HTTrack et j'ai jamais eu de pb.
Mais je D/L en général des sites purement HTML donc... peux pas trop juger...
narcore
up
:)
narcore
question parametrage, je pense avoir exploré cette voie puisque j'ai été jusqu'en profondeur 12 (4 suffit normalement pour prendre ce que je veux) et j'ai telechargé le site d'adobe en profondeur 2...
ça bloque à cause de cette syntaxe en ? et des menus deroulants que les softs n'arrivent pas à gerer...
ZeBorG
Moi, celui que je préfère c’est téléport pro.
Tu peux tweaker la ‘Netiquette’ genre : ne pas obéir les fichiers d’exclusion pour les robot (ce qui est peu être ton problème).
seb31
narcore a écrit a écrit :
up plz
faut paramétrer tes restrictions y a plusieurs niveau de profondeur dasn un site, les liens aussi tu peux choisir de tirer au dela des liens ou pas ;)
narcore
up plz
narcore
Bon j'ai testé, par ordre de preference decroissante :
- memoweb 3
- teleport pro
- winhttrack
memoweb 3 me parait le plus convivial, le plus simple d'utilisation, le plus en français et c'est donc avec lui que j'ai été le plus loin ds l'aspiration de site...
Mais voilà je suis confronté à deux types de probleme :
Alors si qq'un a une solution ou connait un soft d'aspiration ou sait m'expliquer comment faire avec les softs testés plus haut, ça me serait bien utile...