综合传输工具,支持文件的上传和下载
https://blog.youkuaiyun.com/deliciousion/article/details/78062521
1)网址上的内容显现在屏幕上(常用于测试一台服务器能否到达一个网站):
curl +网址
2)(>>/-o/-O)保存网页:
curl www.baidu.com >> baidu.html
curl -o baidu.html www.baidu.com 小写保存网页(-o 后面先文件名,再网址)
curl -O BAIDU.html www.baidu.com 大写保存,这里要具体到某个文件夹
3)(-u)访问或获取带用户验证的URL:
curl -u username:password www.baidu.com
4)(-x)使用代理(curl别人网站可能被屏蔽ip):
curl -x 192.168.100.100:10080 www.baidu.com(试了好些,全都拒绝连接了)
5)(-v)跟踪url的连接信息,看看URL是怎么工作的(>开头的是请求头的信息,<开头的是响应头的信息):
curl -v www.baidu.com
6)(-d)带请求参数:
curl -d 'user= xiaoruan& age=22' http://127.0.0.1/index.html
7)(-A)模仿浏览器
curl -A "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.0)" www.baidu.com
这里浏览器会以为是IE8.0访问的它
8)(-e)伪造referer(盗链)
很多服务器会检查http访问的referer从而来控制访问。比如:你是先访问首页,然后再访问首页中的邮箱页面,这里访问邮箱的referer地址就是访问首页成功后的页面地址,如果服务器发现对邮箱页面访问的referer地址不是首页的地址,就断定那是个盗连了
curl -e "www.linux.com" http://mail.linux.com
服务器以为你是从www.linux.com点击某个链接过来的
9)(-X)指定请求方式
curl -XPOST www.baidu.com
10)通过FTP下载文件(又被拒绝连接了)
curl -O -u 用户名:密码 ftp://www.linux.com/dodo1.JPG
curl -O ftp://用户名:密码@www.linux.com/dodo1.JPG
11)测试网页的返回值,(脚本中测试网页是否正常返回http返回码):
curl -o /dev/null -s -w %{http_code} www.linux.com
其他的可以-h得到,自己看看,其他参数的使用的翻译
-i 响应头的信息包含在内
-I 只返回响应头的信息