il donne la commande wget -rkpE http://www.framasoft.net/
donc je précise que ce post n’a rien d’illégal je souhaiterai seulement faire un backup uniquement des articles de framasoft c’est à dire uniquement les url qui contiennent la chaine de caractere : “article”
mais cette commande me donne le même résultat sans le grep
il y a t’il une solution à cette enigme ?
PS: j’avais pensé a faire un sript avec un lynx -dump … et un wget des résultats mais j’aurais aimé le faire plus simplement sans script.Qu’il télécharge juste ce que je veux et pas tous le site.
Ben la seule fois où j’ai utilisé un aspirateur de sites c’est sous win$. C’était WinHTTrack et j’ai eu quelques problèmes au début parce que je n’avais pas précisé qu’il fallait aspirer les liens vers d’autres sites. Donc comme le site que je voulais aspirer était essentiellement un miroir vers un autre ça plantait.
Là, si tu ne reçois que le index.html c’est louche :heink: … Peut-être que … Non vraiment je vois pas. il y a peut-être un indice dans le manuel ?
Wget est un très mauvais outil pour cette usage. Les options Accept/Reject ne servent qu’a savoir si ton fichier sera enregistrer sur le disque dure. Dans touts les cas, tous les fichiers seront télécharger même ceux qui n’ont pas le mot “article” dans leur url pour rechercher les liens à l’intérieur de ceux ci, ils ne seront simplement pas enregistrer sur le disque.
Tu pourras trouver cette info dans la doc : www.gnu.org…
Utilise un outil comme Offline Explorer pour cette usage.