Wget2 works multi-threaded and uses many features to allow fast operation. In many cases Wget2 downloads much faster than Wget due to HTTP2, HTTP compression, parallel connections, use of If-Modified-Since HTTP header and more.
Très bonne question pour laquelle tu obtiendra que des réponses très subjectives.
Un truc fondamental : si tu fais wget http://fsqn/path/to/filename.ext, ça télécharge le fichier sur le disque avec le nom filename.ext. Si tu fais curl http://fsqn/path/to/resource, ça sort le contenu sur la sortie standard.
Donc pour moi, wget est plus un outil pour télécharger des fichiers sur le disque. Curl est plus un outil qui va chercher une ressource en ligne pour l'exploiter dans un pipeline.
Si on creuse plus loin.
Wget permet de mirorer un site complet (-r) ou de télécharger une liste de ficheirs (-i).
Curl permet de triturer la requête HTTP dans tous les sens, de faire du debug (-vvv ou --trace) et parle aussi d'autres protocoles (DICT, FILE, FTP, GOPHER, HTTP, IMAP, LDAP, MQTT, POP3, RTMP, RTSP, SCP, SFTP, SMB, SMBS, SMTP, TELNET and TFTP). Curl est aussi une surcouche à une bibliothèque (libcurl) qui a des wrappers dans plein de langage.
Bref, même si ils se ressemblent, je pense qu'ils se complètent très bien.
Oui, cURL est un peu ce qui est sous le capot d'un fureteur (browser) qui fera en plus le rendu ; tandis wGET ne fait que le téléchargement de ressources. La frontière est mince, mais l'objectif initial et l'approche de la question n'est pas la même.
Quid de HTTPie le nouveau venu ?
“It is seldom that liberty of any kind is lost all at once.” ― David Hume
httpie c'est une alternative sympa à curl (mais très orienté rest). L'alternative cool à wget c'est aria2c qui peut faire aussi des trucs comme télécharger un même fichier depuis plusieurs url ou tout simplement télécharger charger en torrent.
Ah oui, aria2c avec lequel je n'ai pas encore eu l'occasion de faire mumuse avec, et du coup ne l'avais pas en tête. Je suis assez d'accord de ta vision de httpie : au lieu d'une bibliothèque bas niveau (libcurl) que mettent à profit divers langages de programmation, ici on a une interface de pilotage rest…
“It is seldom that liberty of any kind is lost all at once.” ― David Hume
# nouveauté : le multi thread
Posté par steph1978 . Évalué à 8.
# positionnement par rapport à curl
Posté par woffer 🐧 . Évalué à 3.
Savez-vous s'il a un intérêt par rapport à curl ?
[^] # Re: positionnement par rapport à curl
Posté par steph1978 . Évalué à 10.
Très bonne question pour laquelle tu obtiendra que des réponses très subjectives.
Un truc fondamental : si tu fais
wget http://fsqn/path/to/filename.ext
, ça télécharge le fichier sur le disque avec le nomfilename.ext
. Si tu faiscurl http://fsqn/path/to/resource
, ça sort le contenu sur la sortie standard.Donc pour moi, wget est plus un outil pour télécharger des fichiers sur le disque. Curl est plus un outil qui va chercher une ressource en ligne pour l'exploiter dans un pipeline.
Si on creuse plus loin.
Wget permet de mirorer un site complet (
-r
) ou de télécharger une liste de ficheirs (-i
).Curl permet de triturer la requête HTTP dans tous les sens, de faire du debug (
-vvv
ou--trace
) et parle aussi d'autres protocoles (DICT, FILE, FTP, GOPHER, HTTP, IMAP, LDAP, MQTT, POP3, RTMP, RTSP, SCP, SFTP, SMB, SMBS, SMTP, TELNET and TFTP). Curl est aussi une surcouche à une bibliothèque (libcurl) qui a des wrappers dans plein de langage.Bref, même si ils se ressemblent, je pense qu'ils se complètent très bien.
[^] # Re: positionnement par rapport à curl
Posté par Gil Cot ✔ (site web personnel, Mastodon) . Évalué à 3.
Oui, cURL est un peu ce qui est sous le capot d'un fureteur (browser) qui fera en plus le rendu ; tandis wGET ne fait que le téléchargement de ressources. La frontière est mince, mais l'objectif initial et l'approche de la question n'est pas la même.
Quid de HTTPie le nouveau venu ?
“It is seldom that liberty of any kind is lost all at once.” ― David Hume
[^] # Re: positionnement par rapport à curl
Posté par barmic 🦦 . Évalué à 4.
httpie c'est une alternative sympa à curl (mais très orienté rest). L'alternative cool à wget c'est aria2c qui peut faire aussi des trucs comme télécharger un même fichier depuis plusieurs url ou tout simplement télécharger charger en torrent.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: positionnement par rapport à curl
Posté par El Titi . Évalué à 3.
Limitation: tu ne peux pas télécharger un "open directory" en conservant l'arborescence, sans fournir un fichier de mapping auparavant.
C'est une simple option pour wget.
[^] # Re: positionnement par rapport à curl
Posté par barmic 🦦 . Évalué à 2.
C'est quoi ?
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: positionnement par rapport à curl
Posté par El Titi . Évalué à 4.
https://www.maketecheasier.com/what-are-open-directories/
[^] # Re: positionnement par rapport à curl
Posté par Gil Cot ✔ (site web personnel, Mastodon) . Évalué à 2.
Ah oui, aria2c avec lequel je n'ai pas encore eu l'occasion de faire mumuse avec, et du coup ne l'avais pas en tête. Je suis assez d'accord de ta vision de httpie : au lieu d'une bibliothèque bas niveau (libcurl) que mettent à profit divers langages de programmation, ici on a une interface de pilotage rest…
“It is seldom that liberty of any kind is lost all at once.” ― David Hume
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.