Python笔记:京东分类图片信息爬取之urlretrieve直接存储图片

本文介绍了一种使用爬虫抓取商城图片的方法,并详细解释了如何处理https证书验证失败的问题,提供了代码示例,包括禁用警告信息和使用stream参数优化图片下载流程。

爬虫简介

通过程序来爬取商城图片信息并存储于本地的项目

相关说明

1)解决https警告信息(ssl.SSLError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed)的代码

import ssl
import logging

logging.captureWarnings(True) # 在调用 requests.get 时的处理
ssl._create_default_https_context = ssl._create_unverified_context # 在调用urlretrieve时的处理

2)对于urlretrieve之前较麻烦的做法

    # 默认情况下,当您发出请求时,响应正文会立即下载,而设置stream参数为true,则只有响应头已经下载并且连接保持打开状态。
    with requests.get(imurl, stream=True) as ir: # 使用with的好处不用考虑close关闭问题。
        with open('./mypic/p'+str(m)+'.jpg', 'wb') as f:
            for chunk in ir:
                f.write(chunk)
  1. 在代码同级目录下建立mypic目录,当然也可以程序处理,这里只作为快速演示

全部代码

点击这里查看京东图片信息抓取案例

备注说明

如果想要爬取分页信息,像之前处理豆瓣网数据一样,分析分页参数并处理即可,详情可查看前博文。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Wang's Blog

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值