用wget下载文件
刚安装了stardict,打算装备离线词典,毫无意外地用到了for the first time。
默认现在在当前目录。首先
wget http://abloz.com/huzheng/stardict-dic/zh_CN/
下载试试,下载的是一个名为index.html的网页而已。
然后添加参数 -r 递归试试
wget -r http://abloz.com/huzheng/stardict-dic/zh_CN/
恩,这就行了,会依次下载。不过这是照着URL 的目录结构来默认保存啊,我的下载到/home/wang/abloz.com/huzheng/stardict-dic/zh_CN/,而且会将路径中的同层的都下载了,包括主页,略坑。
后台运行参数 -b
继续下载参数 -c
顺便mark下安装离线词典
tar -xjvf a.tar.bz2
mv a /usr/share/stardict/dic
Or just: tar -xjvf a.tar.bz2 -C /usr/share/stardict/dic
wget下载漫画
wget http://nmmanhua.com/manhua/1327/181969.html
wget -nH http://nmmanhua.com/manhua/1327/181969.html
wget -np http://nmmanhua.com/manhua/1327/181969.html
wget -nH -np http://nmmanhua.com/manhua/1327/181969.html
wget -pk -np http://nmmanhua.com/manhua/1327/181969.html
漫画部分,只会是loading.gif,结果和使用jsoup是一样的结果
wget -pk -nH http://nmmanhua.com/manhua/1327/181969.html
wget -np -pk -nH http://nmmanhua.com/manhua/1327/181969.html
才能下载完整的漫画部分.
下载网页
下载带样式的HTML
wget -r -np -pk -nH -P ./download http://docs.jboss.org/hibernate/orm/5.2/userguide/html_single/Hibernate_User_Guide.html
#!/bin/sh
URL="$2"
PATH="$1"
echo "download url: $URL"
echo "download dir: $PATH"
/usr/bin/wget -e robots=off -w 1 -xq -np -nH -pk -m -t 1 -P "$PATH" "$URL"
echo "success to download"
下载网站
wget -c -r -np -k -L -p http://www.scau.edu.cn/yxbcgbl/gjjlc/