curl 和 wget 的使用和区别

本文详细介绍了wget和curl两个命令行工具的用途、特性、支持协议以及各自的参数选项。wget专注于下载,支持递归下载,适用于静态资源的获取;curl功能更为全面,支持多种网络协议,常用于数据传输、请求分析。文章提供了丰富的使用示例,包括wget的下载参数、HTTP和FTP选项,以及curl的请求参数和时间分析。总结了wget和curl的适用场景,为网络资源管理和分析提供参考。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

简介

cURL 是一个开源项目,主要的产品有 curllibcurlcurl 是一个跨平台的 URL 命令行工具,libcurl 是一个 C语言的网络协议扩展库。两者都是基于多种互联网通用协议对指定 URL 的资源进行数据传输。更多的信息可以阅读电子书:《Everything curl》

GUN Wget 也是一个免费的开源项目,用于从 web 上下载文件。

wget 使用

通过软件管理包安装非常简单,可参考:《How to Install Wget in Linux》

# Ubuntu/Debian
apt-get install wget

# RHEL/CentOS/Fedora
yum install wget

# OpenSUSE
zypper install wget

# ArchLinux
pacman -Sy wget

安装完毕之后,可以使用 wget --versionwget -V 验证工具是否安装成功!

可以做什么?

  • 通过HTTPHTTPSFTPFTPS协议递归下载文件
  • 支持自动断点续传文件【-c参数,旧版本可能存在问题,详情见:Linux 环境下使用 wget 命令下载 Blob 文件断点续传问题
  • 支持通配符批量下载文件
  • 支持将下载的文档中的绝对链接转换为相对链接,以便下载的文档可以在本地彼此链接(–convert-links)
  • 支持:HTTP 代理、COOKIE设置、HTTP 持久化连接

常用参数

更多参数,查看GNU Wget Manual,详细使用用法自行谷歌!

下载参数
选项/参数作用
-b, –-background启动后转入后台执行【可以通过 tail -f wget.log 查看下载进度】
–progress=TYPE设置进程标记【通过 -b 后台作业进行下载时】
-e, –-execute=COMMAND启动下载进程之前执行命令【如:设置临时环境变量…】
-c, –-continue接着下载没下载完的文件【即:断点续传】
-S, –-server-response打印服务器的回应
-nc, –-no-clobber不要覆盖存在的文件或使用.#前缀【若本地已有同名文件,拒绝下载-在多次重复下载同一个站点时或者存在站点多个网页引用同一个资源时常用】
-N, –-timestamping不要重新下载文件除非比本地文件新【只是单纯的对比下载时间,并不会理会本地文件是否下载完整】
-t, –-tries=NUMBER设定最大尝试链接次数(0 表示无限制).【当由于网络的原因下载失败,wget会不断的尝试,直到整个文件下载完毕,可以设置最大尝试连接次数】
-T, –-timeout=SECONDS设定响应超时的秒数
-w, –-wait=SECONDS指定两次重试之间间隔秒数
–waitretry=SECONDS在重新链接之间等待的秒数
–random-wait在下载之间等待 0-2 秒
-Y, –-proxy=on/off打开或关闭代理【更推荐:https://www.cnblogs.com/frankyou/p/6693256.html 文中方法3】
-Q, –-quota=NUMBER设置下载的容量限制【注意:这个参数对单个文件下载不起作用,只能递归下载时才有效。如:-Q=5m
-–limit-rate=RATE限定下载输率【即:限制下载带宽,如:--limit-rate=50k
–-bind-address=ADDRESS指定本地使用地址(主机名或IP,当本地有多个IP或名字时使用)
–-spider不下载任何东西【当需要调试打印 HTTP 响应信息时会使用该参数跳过下载步骤】
下载路径设置
选项/参数作用
-O FILE, –-output-document=FILE把文档写到文件中【即:自定义下载路径】
-nd, –-no-directories不创建目录(缺省参数)
-x, –-force-directories强制创建目录【如:下载 www.learningcontainer.com/wp-content/uploads/2020/05/sample-mp4-file.mp4 会层层创建目录】
-nH, –-no-host-directories不创建主机目录【当 -x 参数存在时才可用】
-P, –-directory-prefix=PREFIX将文件保存到目录 PREFIX/…
输入/记录日志输出
选项/参数作用
-i, –-input-file=FILE下载指定文件中出现的URLs
-F, –-force-html把输入文件当作HTML格式文件对待
-B, –-base=URLURL作为在-F -i参数指定的文件中出现的相对链接的前缀
-d, –-debug打印调试输出
-q, –-quiet安静模式(没有输出,下载完成直接退出)
-v, –-verbose冗长模式(这是缺省设置)
-nv, –-non-verbose关掉冗长模式,但不是安静模式【相比安静模式,该模式下若下载完成会输出下载完成信息】
-o, –-output-file=FILE把记录写到文件中
-a, –-append-output=FILE把记录追加到文件中
HTTP 选项参数
选项/参数作用
–-no-cache允许/不允许服务器端的数据缓存 (一般情况下允许)
-–no-http-keep-alive关闭 HTTP 活动链接 (持久链接)
-–http-user=USER设定HTTP用户名
-–http-passwd=PASS设定HTTP密码
-–proxy-user=USER设定代理的用户名
-–proxy-passwd=PASS设定代理的密码
-U, –-user-agent=AGENT设定代理的名称为AGENT(默认为:Wget/VERSION
-–header=STRINGheaders中插入字符串 STRING
–-load-cookies=FILE在开始会话前从文件中加载cookie
-–save-cookies=FILE在会话结束后将 cookies 保存到文件中
-–referer=URLHTTP请求中包含 Referer: URL
FTP 选项参数
wget -v --ftp-user=demo --ftp-password=password "ftp://test.rebex.net/readme.txt"
递归下载
选项/参数作用
-r, -–recursive递归下载--慎用!
-l, -–level=NUMBER最大递归深度 (inf0 代表无穷)
-k, –-convert-links转换非相对链接为相对链接
-K, –-backup-converted在转换文件X之前,将之备份为X.orig
-m, –-mirror等价于 -r -N -l inf -nr【对网站做镜像下载】
-L, –-relative仅仅跟踪相对链接
-np, –-no-parent不要追溯到父目录
-A, –-accept=LIST分号分隔的被接受扩展名的列表
-E, –adjust-extension以合适的扩展名保存 HTML/CSS 文档
-H, –span-hosts递归下载时,允许递归检索第三方外链域名【慎用!!!】
-R, –-reject=LIST分号分隔的不被接受的扩展名的列表
-D, –-domains=LIST分号分隔的被接受域的列表
–-exclude-domains=LIST分号分隔的不被接受的域的列表
–-follow-ftp跟踪HTML文档中的FTP链接
–-follow-tags=LIST分号分隔的被跟踪的HTML标签的列表
-I, –-include-directories=LIST允许目录的列表
-X, –-exclude-directories=LIST不被包含目录的列表

案例:使用wget下载网站下所有的图片

图片命名有规则

对于命名有规则的图片,下载非常简单:使用通配符(*-任意长度的任意字符、?-任意一个字符、[]-括号中的任意一个字符、{…}-表示一个序列)下载即可

wget -b http://aliimg.changba.com/cache/photo/{260929610-260939610}_640_640.jpg
图片命名无规则

一共 22 页,图片全部在 CDN:img1.446677.xyz上,图片命名是非规则的!

  • 遍历当前页面的 img.446677.xyz 域名,下载资源
  • 遍历 22 分页:https://www.kanxiaojiejie.com/page/{1..22}
wget -b -c -r -H -D "img1.446677.xyz" -R "www.kanxiaojiejie.com" -nc https://www.kanxiaojiejie.com/page/{1..22}

curl 使用

cURL你想要了解的curl的知识基本都在:《Everything curl》里面。关于安装,请查看GET cURL

可以做什么?

curl 的定位是在网络中“传输数据”,相比于wget的只能下载资源就显得curl的功能要强大太多了,而且其支持协议也比wget要多的多。curl 可以用来发送邮件、批量请求、下载文件、模拟表单提交、分析网站请求耗时…wget能做的,curl都能做!

常用选项参数

标准错误输出
选项/参数作用
-V, –version显示版本号并退出
-v, –verbose展示资源传输详细信息
–trace将调试跟踪信息写入到文件中
–trace-ascii类似于 –trace,但没有十六进制输出
-s, –silent静音模式-不显示任何标准错误信息(注意:不影响结果输出到stdout
-I, –head只显示响应头信息
-D, –dump-header <文件名>将响应头文件写入指定文件
-i, –include在输出中包含协议响应头:Response Header + Body
-w, –write-out format|@format-file完成后使用输出格式
标准输出
选项/参数作用
-o, –output将输出写入文件(注意需要绝对路径)而不是stdout
-O, –remote-name将输出写入与远程文件同名的文件中,如:curl -O xxx/a.html 写入本地 a.html
-J, –remote-header-name使用头提供的文件名。如:Content-Disposition: attachement; filename=rustup-setup.exe

!!!注意:curl -O https://www.baidu.com 请求只有域名部分或结尾以/结尾,请求是会报错的!这正是-o-O的不同之处

输入
选项/参数作用
–limit-rate限制传输速度,模拟慢网络
–cert携带客户端的SSL证书进行请求
-k, –insecure使用SSL时允许不安全的服务器连接(忽略SSL验证失败)
-L, –location遵循重定向,自动处理重定向跳转
-C, –continue-at指定断点续传的便宜量【!!!注意:要自动续传的话要使用 -C -,否则要自行指定】
-m, –max-time <秒>允许传输的最长时间
–connect-timeout <秒>允许连接的最长时间
-x使用代理
请求
选项/参数作用
-0, –http1.0使用 HTTP 1.0 版本协议
–http1.1使用HTTP 1.1
–http2使用HTTP 2
–http2-prior-knowledge使用HTTP 2而不使用HTTP/1.1升级。
–http3使用HTTP v3
-X, –request <命令,如:POST/GET/PUT…>指定要使用的请求命令
-G, –get将数据放入URL 中,并使用GET发送请求
-d, –dataHTTP 要传输的数据,默认是POST
–data-urlencodeHTTP请求数据进行URL编码
-F, –form <key-name=content>指定多部分MIME数据、数据类型。如:模拟POST表单上传二进制文件
-T, –upload-file使用PUT方式传输本地文件到服务器-一般FTP上传文件
-H, –header header/@file将自定义头传给服务器
-A, –user-agent发送User-Agent: <name>到请求头中
-e, –referer设置Referer: <url>到请求头中
-b, –cookie <data|filename>从字符串/文件发送cookie
-c, –cookie-jar操作后将cookie写入文件名
-u, –user服务器用户和密码

使用curl变量格式化输出

重定向输出
  • %{stderr} - 使用-w参数格式化结果时,将该变量后的结果作为 标准错误-stderr 输出
  • %{stdout} - 使用-w参数格式化结果时,将该变量后的结果作为 标准输出-stdout 输出
获取请求信息
  • %{local_ip} 本地客户端IP地址(支持IPv4IPv6
  • %{local_port} 本地客户端请求端口
获取响应信息
  • %{content_type} 获取 HTTP 响应头中的 Content-Type
  • %{method} 最终一次 HTTP 请求方法
  • %{http_version} 最终一次 HTTP 请求的协议版本
  • %{scheme} 获取最终URL的通信协议方式(若使用了-L参数,发生了重定向跳转最终获得的值可能和你预想的URL协议不一致)
  • %{response_code} 最后一次传输返回的数字响应码(如:HTTP CODE-旧版本获取响应码%{http_code}
  • %{url_effective} 获取最终重定向后的URL地址(-L 参数设置 URL 自动重定向跳转,而不是直接返回 301/302 信息)
  • %{num_redirects} 重定向次数(只有使用了 -L 选项且确实发生了重定向该值才为非0)
  • %{redirect_url} 重定向之后的URL(当没有设置 -L 参数时才有值)
  • %{remote_ip} 远程IP地址(支持IPv4IPv6
  • %{remote_port} 远程响应端口
  • %{ssl_verify_result} SSL 证书验证结果:0-成功
  • %{filename_effective} curl写入的最终文件名。只有当使用了 --remote-name--output 选项时这个选项才有意义。它与 --remote-header-name 选项结合使用时最有用
  • %{ftp_entry_path} 登录到远程FTP服务器时,curl的初始路径
  • %{num_connects} 最近一次请求传输建立的TCP连接数
传输速率
  • %{size_download} 下载内容的总字节数(即:Body总字节数-Content-Length
  • %{size_header} HTTP 响应头 headers 的总字节数(不包含 Body 体)
  • %{size_request} HTTP 请求中发送的总字节数
  • %{size_upload} 上传的总字节数
  • %{speed_download} curl的平均下载速度,单位:字节/秒【B/s】
  • %{speed_upload} curl的平均上传速度,单位:字节/秒【B/s】
请求时间
  • %{time_appconnect} 从“发起请求–>完成SSL/SSH 等上层协议”所耗费的时间,单位-秒
  • %{time_connect} 从“发起请求–>完成TCP三次握手”所耗费的时间,单位-秒
  • %{time_namelookup} 域名解析完成所耗费的时间,单位-秒(测试 DNS 服务器的寻址能力)
  • %{time_pretransfer} 从开始到文件传输即将开始所花费的时间(所有传输前的命令和特定协议的协商),单位-秒
  • %{time_redirect} 所有重定向所耗费的时间(重定向域名寻址–>准备传输前),单位-秒
  • %{time_starttransfer} 过程“发起请求连接–>接收到服务器的第一个字节响应”所耗费的时间(包括:请求/响应过程链路连接的耗时+服务器处理逻辑耗时),单位:秒
  • %{time_total} 整个请求操作的总耗时(发起请求连接–>传输完毕),单位:秒

案例:使用curl分析网站单次请求响应情况

在这里插入图片描述

先准备一份格式化文件curl-format.txt,内容如下:

# cat  curl-format.txt 
               url: %{redirect_url}\n
         remote_ip: %{remote_ip}\n
     response_code: %{response_code}\n
   time_namelookup: %{time_namelookup}\n
      time_connect: %{time_connect}\n
   time_appconnect: %{time_appconnect}\n
     time_redirect: %{time_redirect}\n
  time_pretransfer: %{time_pretransfer}\n
time_starttransfer: %{time_starttransfer}\n
                    ----------\n
time_total: %{time_total}\n 

示例:

# curl -w "@/tmp/curl-format.txt" -o /dev/null --connect-timeout 15  -s -L "qeeq.com"

               url: https://www.qeeq.com/
         remote_ip: 210.65.162.22
     response_code: 200
   time_namelookup: 0.640369
      time_connect: 1.190672
   time_appconnect: 1.126743
     time_redirect: 1.080580
  time_pretransfer: 2.007771
time_starttransfer: 3.333640
                    ----------
time_total: 5.689121

总结

特性wgetcurl
作用下载文件“资源传输”
开源
支持协议HTTP, HTTPS, FTP, FTPS基本的网络通用协议都支持(支持30多种协议)
可交互
是否支持递归下载
跨平台不支持 X-Windows支持跨平台客户端
使用难易简单,可配置少功能丰富,可自定义的配置多,有一定的使用门槛
  • 两者都是不可以交互的命令行工具,这意味着 wgetcurl 都可以直接在 Shell 脚本、crontab等工具中被使用
  • wget 是一个无需依赖其他扩展的独立、简单的程序,专注于下载且支持递归下载,如果遇到访问链接301302等情况会自动进行跳转然后进行下载
  • curl 是一个功能完备的网络请求工具-更多的用途是:从stdin读取数据将网络请求结果输出到stdout。更多的协议、提供了更大的自定义操作功能,如:并发测试、下载数据、上传数据、获取响应报头进行分析…!【curl -L 参数可以实现重定向自动跳转】

下载文件:优先使用wget,其余情况使用curl

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

讓丄帝愛伱

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值