En tapant lune URL complète, on peut télécharger le fichier (ex : http://www.kyosho.co.jp/instructio [...] mp6_p.pdf) mais en ne mettant que l'url (http://www.kyosho.co.jp/instructionmanual/parts_list/car/buggy/) on arrive sur une page erreur 403.
Quel soft me permettrai de lister le contenu de cette page.
Merci.
Publicité
Posté le 23-07-2005 à 08:59:24
phosphorus68
Pseudo à n°
Posté le 23-07-2005 à 09:03:39
Un "aspirateur de site" (voir clubic.com; télécharger par exemple)
Il te faudra commencer avec la racine du site sinon tente ton répertoire + index.html index.htm etc page.html ...
(Google avec link:****.pdf ne donne rien; je parle de la recherche avancée, dernier formulaire)
jervil73
Posté le 23-07-2005 à 11:15:13
J'ai déjà tester avec plusieurs aspirateur de site web, mais rien..., il existe pas un outils qui passerait cette limitation, et qui pourrait télécharger tout les pdf ?
phosphorus68
Pseudo à n°
Posté le 23-07-2005 à 21:16:07
Ben s'il n'y a pas une page accessible par tous quelque part qui a pour lien un PDF, impossible de savoir qu'il existe
A moins qu'ils soient nommés d'une certaine manière facile à deviner (blabla1.pdf, forcément tu essayes blabla2.pdf mais bon )