爬虫——练习分页爬取糗事百科热图,保存图片到本地

博客介绍了利用Python进行图片爬取与保存的方法。使用os模块建文件夹,re模块通过单行模式、非贪婪匹配和分组取值处理数据,requests模块拼接图片地址、分割文件名,用content属性和wb模式将图片保存本地,不过该方法速度较慢。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • os模块操作:建文件夹
  • re模块操作:单行模式+非贪婪匹配+分组取值 img_list = re.findall('<div class="thumb">.*?<img src="(.*?)".*?>.*?</div>', page_text, re.S)
  • requests操作:图片地址要拼接+ 保存本地时文件名分割+ content属性+ wb模式写

缺点是有点慢

import requests
import re
import os

if not os.path.exists('./img2'):
    os.mkdir('./img2')

start_page = int(input("输入起始页码"))
end_page = int(input("输入终止页码"))

proxies = {
    "https": "218.60.8.99:3129"

}

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36"
}

# https://www.qiushibaike.com/imgrank/page/2/

base_url = 'https://www.qiushibaike.com/imgrank/page/'

for i in range(start_page, end_page + 1):
    print(i)
    url = base_url + str(i)

    response = requests.get(url=url, proxies=proxies, headers=headers)
    page_text = response.text
    img_list = re.findall('<div class="thumb">.*?<img src="(.*?)".*?>.*?</div>', page_text, re.S)
    for url in img_list:
        img_url = 'https:' + url
        # 持久化处理
        img_data = requests.get(url=img_url, proxies=proxies, headers=headers).content
        imgName = url.split('/')[-1]
        withPath = 'img2/' + imgName

        with open(withPath, 'wb')as f:
            f.write(img_data)
            print(imgName + "写入成功")
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值