Je suis nouvelle ici, j’espère que je poste au bon endroit.
Un forum qui me tient vraiment à coeur et dont je suis adhérente va fermer ses portes d’ici peu. Son administratrice et créatrice nous a encouragés à faire des copier-coller pour sauvegarder les info qu’il contient. J’ai commencé mais ça va être titanesque.
Est-ce que quelqu’un connaîtrait un moyen d’exporter simplement les données texte vers un fichier texte ou même un tableur, un peu comme on le ferait pour une base de données ?
Pour info, je suis sous Mac OS, mais si vous connaissez des logiciels sous linux je prends aussi ^^
par contre reste a comprendre comment les utiliser
sur doc.ubuntu-fr.org… tu devrais regarder l’exemple "Télécharger le site récursivement avec une profondeur infinie ( -linf ), convertit les liens pour une consultation en local ( -k ), rapatrie tous les fichiers nécessaires à l’affichage convenable d’une page HTML ( -p ) et renomme toutes les pages HTML avec l’extension .html ( -E ) : "
regarde les autres exemples car perso :
je ferais avant un essai avec la profondeur par defaut (qui est de 5 )
je pense que pour une profondeur infinie il faut peut être se restreindre a un seul domaine
la doc de wget sur www.delafond.org… montre les “Options récursives d’acceptation et de rejet” :
–domains=liste-domaines
Indiques les noms de domaine qui peuvent être suivis. liste-domaines est une liste avec la virgule comme séparateur. Remarquez que ça n’active pas -H.
en gros pour prendre celui de clubic on veux que des domaines qui comprennent (http://www.clubic.com)
–no-parent
Ne pas remonter dans les répertoires parents. C’est une option utile, puisqu’elle garantit que seuls les fichiers en dessous d’une certaine hiérarchie seront téléchargés.
pour eviter de prendre les test/article/autres dans (http://www.clubic.com) et rester dans (http://www.clubic.com/forum)