Python爬虫学习笔记(四)

该博客展示了如何使用Python的requests和re库来抓取网页(糗事百科图片排行榜)上的图片,并将其保存到本地文件夹。通过构建正则表达式匹配图片链接,然后逐个下载并保存。代码实现了一个简单的网页图片爬取和下载的功能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

# 分页抓取网站上的图片 并保存到文件夹中
import requests
import re
import  os
if __name__=="__main__":
    if not os.path.exists('./qiutuLibs/'):
        os.mkdir('./qiutuLibs/')
    headers = {
        "user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36"}
        #https://www.qiushibaike.com/imgrank/page/2/
        #https://www.qiushibaike.com/imgrank/page/4/
        # <div class="thumb">
        #
        # <a href="/article/123595000" target="_blank">
        # <img src="//pic.qiushibaike.com/system/pictures/12359/123595000/medium/6IUHDYTJXLDN16DA.jpg" alt="糗事#123595000" class="illustration" width="100%" height="auto">
        # </a>
        # </div>
    base_url = 'https://www.qiushibaike.com/imgrank/page/%d/'#  %d占位
    ex='<div class="thumb">.*?<img src="(.*?)" alt.*?</div>' #构建正则

    for pageNum in range(1,6):#1-5页的图片
        url = format(base_url%pageNum)     #  用pageNum代替之前的占位符
        #print('每页url',url)
        page_text = requests.get(url=url,headers=headers).text
        img_src_list = re.findall(ex,page_text,re.S)
        print(img_src_list)

        for src in img_src_list:
            src_url = "https:"+src
            img_data = requests.get(url=src_url,headers=headers).content
            img_name = src_url.split('/')[-1]#-1表示最后一个
            img_path = './qiutuLibs/'+img_name
            with open(img_path,'wb') as fp:
                fp.write(img_data)
                print(img_name,"Downloaded!!")


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值