【python】py35中使用requests库爬https协议下的网站

本文介绍如何使用Python的requests库定制HTTPAdapter,以解决爬取TLSv1或TLSv1.1网站时的SSL协议版本问题。通过自定义MyAdapter类并设置ssl.PROTOCOL_TLSv1,可以成功获取网站数据。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

使用requests库可以非常简单地爬https协议下的网站:

import requests
url='https://www.baidu.com/'
r = requests.get(url,verify=False)
r.encoding = 'utf-8'
print(r.text)

而当爬取TLSv1或TLSv1.1网站时,这样的代码就会报错
于是我们需要使用HTTPAdapter定制requests参数:

#-*- coding:utf-8 -*-
import re
import requests
from requests.adapters import HTTPAdapter
from requests.packages.urllib3.poolmanager import PoolManager
import ssl
import os
class MyAdapter(HTTPAdapter):
    def init_poolmanager(self, connections, maxsize, block=False):
        self.poolmanager = PoolManager(num_pools=connections,
                                      maxsize=maxsize,
                                      block=block,
                                      ssl_version=ssl.PROTOCOL_TLSv1)#这里定义了ssl协议版本
s = requests.Session()
s.mount('https://', MyAdapter())

def downloadImage(netPath,localPath,imageName):#netPath=网络全路径,localPath=本地文件夹路径,imageName=图片文件名
    #检测当前路径的有效性
    if not os.path.isdir(localPath):
        os.makedirs(localPath)
    ok=0
    while(ok==0):
        try:
            r=s.get(netPath,timeout=10)
            ok=1
        except:
            print("连接超时")
    if(r.status_code==200):
        fp = open(localPath+'\\'+imageName, 'wb')
        fp.write(r.content)
        fp.close()
        return 1
    else:
        return 0

这样就可以通过定制HTTPAdapter实现爬取TLSv1或TLSv1.1的网站。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值