用wget下载文件

本文介绍了如何使用wget工具进行文件、漫画、网页及整个网站的下载。通过添加不同参数,如递归下载(-r)、后台运行(-b)、断点续传(-c),可以实现对指定URL资源的有效管理。同时,对于下载的HTML页面,wget还支持保留链接(-k)和父级页面资源(-p)。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

用wget下载文件

刚安装了stardict,打算装备离线词典,毫无意外地用到了for the first time。

默认现在在当前目录。首先
wget http://abloz.com/huzheng/stardict-dic/zh_CN/
下载试试,下载的是一个名为index.html的网页而已。
然后添加参数 -r 递归试试
wget -r http://abloz.com/huzheng/stardict-dic/zh_CN/
恩,这就行了,会依次下载。不过这是照着URL 的目录结构来默认保存啊,我的下载到/home/wang/abloz.com/huzheng/stardict-dic/zh_CN/,而且会将路径中的同层的都下载了,包括主页,略坑。
后台运行参数 -b
继续下载参数 -c

顺便mark下安装离线词典
tar -xjvf a.tar.bz2
mv a /usr/share/stardict/dic
Or just: tar -xjvf a.tar.bz2 -C /usr/share/stardict/dic

wget下载漫画

wget http://nmmanhua.com/manhua/1327/181969.html  
wget -nH http://nmmanhua.com/manhua/1327/181969.html 
wget -np http://nmmanhua.com/manhua/1327/181969.html 
wget -nH -np http://nmmanhua.com/manhua/1327/181969.html 
wget -pk -np http://nmmanhua.com/manhua/1327/181969.html 

漫画部分,只会是loading.gif,结果和使用jsoup是一样的结果

wget  -pk -nH http://nmmanhua.com/manhua/1327/181969.html  
wget -np -pk -nH http://nmmanhua.com/manhua/1327/181969.html 

才能下载完整的漫画部分.

下载网页

下载带样式的HTML
wget -r -np -pk -nH -P ./download http://docs.jboss.org/hibernate/orm/5.2/userguide/html_single/Hibernate_User_Guide.html

#!/bin/sh

URL="$2"
PATH="$1"

echo "download url: $URL"
echo "download dir: $PATH"

/usr/bin/wget -e robots=off -w 1 -xq -np -nH -pk -m  -t 1 -P "$PATH" "$URL"

echo "success to download"

下载网站

wget -c -r -np -k -L -p http://www.scau.edu.cn/yxbcgbl/gjjlc/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值