用爬虫爬取网页图片壁纸

提示:当我们遇到不会的知识点时,我们一定要勤于动手,多在浏览器上面搜索用法

文章目录


前言

随着网络的不断发展,爬虫这门技术也越来越重要,很多人都开启了学习爬虫学习,本文就介绍了爬虫的两个库去爬取网站上面的图库。

一、requests,pyquery是什么?

大致来说,requests就是获取网页的url和相关网页信息,pyquery就是给了CSS选择器的一些方法来获取网页节点

二、使用步骤

1.引入库

#1,分析url
#2,先找出主页面的url,在提取子页面的url
#3,导入需要的库
import requests
from pyquery import PyQuery     #使用css选择器来爬取

2.爬取图片

代码如下:(可以直接复制运行)(前提是pycharm要有img文件夹)

url='http://www.bizhi360.com/meinv/index.html'   #壁纸url
res=requests.get(url)
pic=PyQuery(requests.get(url).content)    #实例化一个PyQuery对象
url_pic=pic('.pic-list ul li a')  #爬取该节点下的a节点
urls=[item.attr('href') for item in url_pic.items()]   #利用列表解析式来把主url的后半段放到同一个列表里面
print(urls)
main_url='http://www.bizhi360.com/'   #主url
for url in urls:          #在url进行遍历
    join_url=main_url+url     #拼接新的url
    #print(join_url)
    new_page=PyQuery(requests.get(join_url).content)
    for i in new_page('.article figure a').items():
        i_web=i.attr('href')           #爬取到子页面的jpg图片格式
        i_res=requests.get(i_web)
        i_name=i_web.split('/')[-1]     #给每一个图片取名字
        with open("img/"+i_name,'wb') as f:
            f.write(i_res.content)        #保存到pycharm名为img文件目录下

下面是图片展示

 

 

#爬取的部分图片如上 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小飞努力学习~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值