Récupérer le "code source" d'une image

Bonjour,

Je dispose d’adresses du type : http://www.monsite.fr/mesimages/image?nom=image-1

Les fichier sont des images au format .GIF de résolutions variables mais inférieure à 1024x768.

Sachant que j’ai beaucoup d’image à récupérer je souhaiterai pouvoir automatiser la tache, plutôt que d’avoir à faire :

Je suis ouvert à toute idée ! Merci pour votre aide. :smiley:

Je t’ avouerais que je ne voue actuellement aucun interet aux PagesJaunes. :ane:

Aspirateur de site, sont là pour ça.

Tu peux sinon bricoler ça en java je pense.

alt-click sous firefox, c’est déjà plus rapide :smiley: ; mais, oui en Java c’es possible,il faut gérer un peu le flux pour l’écrire dans un fichier (ça se fait simplement, je lis -j’écris…). Sinon, il me semblait avoir vu des aspirateur de Site fait en Java, que tu pourrait customiser après…

edit: voilà un code qui lit une page HTML dans un buffer, ça marche peut-être aussi pour du GIF. C’est codé à la va-vite: le buffer n’est pas redimentionnable, mais vu tes besoins, ça pourrait suffire.


  try {
  	byte buffer[]=new byte[300000];
  	URL url=new URL("http://www.clubic.fr"); 
  	URLConnection uc = url.openConnection(); 
  	
  	DataInputStream input = new DataInputStream(uc.getInputStream()); 
  	
  	int numRead=0; 
  	int size=0; 
  	
  	while (numRead != -1) {
    
     numRead = input.read(buffer,size,20000); 
     size+=numRead; 
  	} 
  	String result = new String(buffer,0,size);
  	System.out.println(result);
  } catch (MalformedURLException e) {
  	e.printStackTrace();
  	//return 1;
  } catch (IOException e) {
  	e.printStackTrace();
  	//return 2;
  }

Oui tu peux bricoler un ptit script qui va bien (avec wget)


int main()
{
int i=101;
char site[]=" http://www.monsite.fr/mesimages/image?nom=image-"
char url[200];
while (i<130)
{
sprintf(url,"wget %s%d",site,i);
system(url);
i++;
}
}


J’ai bien pris connaissance des codes que vous m’avez fait parvenir, cependant, j’ai un peu de mal à mettre la chose en pratique ! Si vous pouviez m’aider ?

Je me suis intéressé à Wget qui m’a l’air pas mal, cependant je ne suis pas tout à fait à l’aise avec les lignes de commandes. Néanmoins, j’esseye !

En fait, l’URL chargé est du type : “http://www.monsite.fr/mesimages/Servlet?olename=imageAG489Y004/P

Cette URL mène directement sur une image de type .GIF, ce qui signifie qu’il n’y a pas de page HTML, puisque l’image se charge directement.

Je possède la liste des URL à télécharger dans un fichier .TXT où chaque ligne correspond à une URL donc à une image.

Fichier TXT : urls.txt
http://www.monsite.fr/mesimages/Servlet?ol…mageAG489Y004/P
http://www.monsite.fr/mesimages/Servlet?ol…mageOL891P998/A
http://www.monsite.fr/mesimages/Servlet?ol…mageTV987H810/D
http://www.monsite.fr/mesimages/Servlet?ol…mageOP778D745/R

Quel script (et en quel langage) pourrais-je mettre en place pour récupérer les fichiers images (.GIF 4 bits) ? Soit avec Wget soit avec un autre langage ?

Sinon tu as une option puissante dans wget c’est le télechargement depuis un fichier texte

en gros ton fichier texte (urls.txt) contient:

http://www.monsite.fr/mesimages/Servlet?olename=imageAG489Y004/P
http://www.monsite.fr/mesimages/Servlet?olename=imageAG489Y005/P
http://www.monsite.fr/mesimages/Servlet?olename=imageAG489Y006/P
http://www.monsite.fr/mesimages/Servlet?olename=imageAG489Y005/P
http://www.google.fr/intl/fr_fr/images/logo.gif

tu fais un
wget -i urls.txt

et paf, il te télecharge ligne après ligne, pas besoin de savoir programmer…

Edit:Wget

salut,

regarde gygaget dans les télécharmements,
tu peux tout télécharger d’un bloc

J’ai mis en pratique ton conseil, mais voilà ce que j’obtiens :

Connecting to abc.abc.com|XXX.XXX.XXX.XXX|:80... failed: Connection timed out.
Retrying.

t’a essayé wget www.google.fr? ça marche?

si oui met www.google.fr dans un fichier et essaie wget -i fichier.txt

Wget ne fonctionnait pas correctement dû à un firewall sur le réseau, avec un réseau externe, ça marche impec’ !

Est-il possible de temporiser le téléchargement avec Wget ?

En fait je voudrais imposer un temps de pause entre chaque téléchargement.
Par exemple imposer 10 secondes d’attente entre chaque téléchargement, est-ce possible ?

Sinon est-il possible de mettre dans un fichier texte la liste des commandes à lancer ?

wget -i liste_commande.txt

liste_commande.txt :

wget -i url_cadre_1.txt
wget -i url_reponse_5.txt
wget -i url_test.txt

Avec url_cadre_1.txt :

http://www.mon-site.fr/...
http://www.mon-site.fr/...
http://www.mon-site.fr/...

Et ainsi de suite.

Dans l’attente de vos réponses ! :jap:

sleep 10 ?

Ce message n’était pas conforme aux règles d’utilisation du nouveau forum :

UP !