ça n'existe pas en fait
ces langages s'exécutent côté serveur
en aspirant un tel site, tu récupèreras le texte qu'il y a normalement à l'écran (y compris celui généré en php par exemple)
mais n'espère pas récupérer un site et sa base de données opérationnelle (castorama par exemple)
@+
Et bien non puisque les pages en php ou asp sont pas des pages à contenu fixe mais bien à contenu dynamique (le contenu est pioché dans une base de donnée). il faudrait un soft qui suce la page et puis execute toutes les requête possible et produisent autant de résultat de cette page que de contenu différent il à reçus pour ses requêtes.... (bon je m'a pêté un neurone c malin ça , )
---------------
AztechXX
antp
Super Administrateur Champion des excuses bidons
Posté le 03-12-2002 à 13:53:32
satrincha a écrit a écrit :
meme si ont prend les pages 1 a 1 ?
à priori les aspirateurs de sites le font tous, mais il va te récupérer toutes les pages telles qu'un browser peut les avoir, t'auras juste du html statique. Et les pages que l'on ne peut trouver qu'en faisant une recherche sur mot clé tu ne les aura évidemment pas
Après en avoir essayé pas mal (Memoweb, Teleport pro, Httracks...), j'utilise Offline Explorer Pro : je le trouve léger et efficace (pas à 100%, je n'ai jamais trouvé d'aspirateur Web qui soit efficace à 100%). Par contre il n'est pas gratuit (en gratuit Httracks est mon préféré).