7个鲜为人知的wget技巧:从青铜到大神的Linux下载神器
你是否还在为Linux下载文件发愁?遇到大文件中断要重新下载?需要定时备份网站却不知从何下手?本文将带你全面掌握wget(网络下载工具)的使用技巧,从基础操作到高级应用,让你轻松应对各种下载场景。读完本文,你将学会断点续传、限速下载、批量获取文件等实用技能,成为Linux下载高手。
wget简介
wget是Linux系统中功能强大的命令行下载工具,支持HTTP、HTTPS和FTP协议,以稳定性著称,即使在网络不稳定的情况下也能可靠地完成下载任务。其核心优势在于支持断点续传、后台运行、批量下载等功能,是系统管理员和普通用户必备的工具之一。
项目中完整的wget命令文档可参考:command/wget.md
基础下载操作
单个文件下载
最基本的用法是直接指定URL下载文件:
wget http://example.com/file.iso
执行后,wget会显示下载进度条,包含完成百分比、已下载字节数、当前速度和剩余时间。
指定文件名保存
使用-O参数可以自定义保存的文件名,解决动态链接下载时文件名混乱的问题:
wget -O ubuntu20.04.iso http://mirrors.example.com/ubuntu.iso
限速下载
当需要控制带宽使用时,使用--limit-rate参数限制下载速度(单位可以是k、m等):
wget --limit-rate=200k http://example.com/large_file.zip
高级下载技巧
断点续传
网络中断后无需重新下载整个文件,使用-c参数即可从断点继续:
wget -c http://example.com/large_file.tar.gz
后台下载
对于大型文件,可使用-b参数让wget在后台运行,输出会重定向到wget-log文件:
wget -b http://example.com/big_data.iso
tail -f wget-log # 查看下载进度
批量下载
将多个URL保存到文本文件(如urls.txt),使用-i参数批量下载:
# 先创建包含URL的文件
cat > urls.txt << EOF
http://example.com/file1.txt
http://example.com/file2.jpg
http://example.com/file3.pdf
EOF
# 批量下载
wget -i urls.txt
网站镜像
使用--mirror参数可以创建网站的本地镜像,适合离线浏览:
wget --mirror -p --convert-links -P ./local_mirror http://example.com
参数说明:
--mirror: 开启镜像模式-p: 下载页面所需的所有资源(图片、CSS等)--convert-links: 将链接转换为本地路径-P ./local_mirror: 指定保存目录
实用场景案例
定时备份检查
使用--spider参数测试下载链接是否有效,适合定时任务前的检查:
wget --spider http://example.com/backup.tar.gz
如果链接有效,会显示"Remote file exists",否则提示"404 Not Found"。
增加重试次数
网络不稳定时,使用--tries参数增加重试次数(默认20次):
wget --tries=50 http://unstable.server.com/file.zip
下载指定类型文件
递归下载网站中所有PDF文件:
wget -r -A.pdf http://example.com/documents/
FTP认证下载
对于需要认证的FTP服务器,使用--ftp-user和--ftp-password参数:
wget --ftp-user=username --ftp-password=secret ftp://ftp.example.com/data.zip
总结与扩展
wget作为Linux系统中最常用的下载工具之一,其强大的功能远不止于此。通过本文介绍的技巧,你可以应对大多数下载场景。项目中还提供了更多Linux命令的详细文档,如command/curl.md(另一个强大的网络工具)和command/axel.md(多线程下载工具),感兴趣的读者可以进一步探索。
掌握wget不仅能提高工作效率,更是Linux系统管理的必备技能。建议收藏本文,以便需要时快速查阅。如果你有其他实用的wget技巧,欢迎在项目中贡献你的经验:CONTRIBUTING.md
注:本文所有示例均基于项目文档command/wget.md编写,确保与实际使用场景一致。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考




