爬虫—cookie设置

本文详细讲解了Python爬虫中如何使用Session模块处理Cookie,以及应对古诗词网站的双层认证机制,包括登录与保持会话的实现技巧。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、Session模块

#识别人人网中的验证码图片
from lxml import etree
from urllib import request
url = 'http://www.renren.com/'
headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36'
}
page_text = requests.get(url=url,headers=headers).text
#解析验证码图片
tree = etree.HTML(page_text)
code_img_url = tree.xpath('//*[@id="verifyPic_login"]/@src')[0]
request.urlretrieve(code_img_url,'./code.jpg')

code_text = getCodeText('bobo328410948','bobo328410948','./code.jpg',2004)

#登录
login_url = 'http://www.renren.com/ajaxLogin/login?1=1&uniqueTimestamp=201924831467'
data = {
    "email":"www.zhangbowudi@qq.com",
    "icode":code_text,
    "origURL":"http://www.renren.com/home",
    "domain":"renren.com",
    "key_id":"1",
    "captcha_type":"web_login",
    "password":"436e61246c5c1c36a288c0e625b4e10f9b9c8df72b7a3f6e06a182c38d2286cb",
    "rkey":"77a46f4376c93a80d35930b2cacb6a8d",
    "f":"",
}

#创建一个session对象
session = requests.Session()
#使用session进行请求的发送:获取cookie,且将cookie保存到session中
session.post(url=login_url,data=data,headers=headers)

#获取个人主页对应的页面数据
detail_url = 'http://www.renren.com/289676607/profile'
#该次请求发送是就已经携带了cookie
page_text = session.get(url=detail_url,headers=headers).text
with open('./renren.html','w',encoding='utf-8') as fp:
    fp.write(page_text)

二、古诗词网双层认证

#对古诗文网进行模拟登录
from lxml import etree
from urllib import request
headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36'
}
session = requests.Session()

#获取验证码图片
url = 'https://so.gushiwen.org/user/login.aspx?from=http://so.gushiwen.org/user/collect.aspx'
page_text = requests.get(url=url,headers=headers).text
tree = etree.HTML(page_text)
code_img_url = 'https://so.gushiwen.org'+tree.xpath('//*[@id="imgCode"]/@src')[0]
# request.urlretrieve(code_img_url,'./gushiwen.jpg')
img_data = session.get(url=code_img_url,headers=headers).content
with open('./gushiwen.jpg','wb') as fp:
    fp.write(img_data)
    
code_text = getCodeText('bobo328410948','bobo328410948','./gushiwen.jpg',1004)


#执行登录
__VIEWSTATE = tree.xpath('//*[@id="__VIEWSTATE"]/@value')[0]
__VIEWSTATEGENERATOR = tree.xpath('//*[@id="__VIEWSTATEGENERATOR"]/@value')[0]
login_url = 'https://so.gushiwen.org/user/login.aspx?from=http%3a%2f%2fso.gushiwen.org%2fuser%2fcollect.aspx'
data = {
    "__VIEWSTATE":__VIEWSTATE,
    "__VIEWSTATEGENERATOR":__VIEWSTATEGENERATOR,
    "from":"http://so.gushiwen.org/user/collect.aspx",
    "email":"www.zhangbowudi@qq.com",
    "pwd":"bobo328410948",
    "code":code_text,
    "denglu":"登录",
}

page_text = session.post(url=login_url,data=data,headers=headers).text

with open('./gushiwen.html','w',encoding='utf-8') as fp:
    fp.write(page_text)

 

### 关于豆瓣爬虫Cookie设置与处理 在进行豆瓣爬虫开发时,合理配置和管理Cookie对于模拟真实用户的访问行为至关重要。以下是关于如何使用或处理豆瓣爬虫中的Cookie的相关信息: #### 启用Cookie支持 为了使爬虫能够维持登录状态并正确处理基于Cookie的身份验证机制,可以通过将`COOKIES_ENABLED`选项设为`True`来启用Cookie功能[^1]。这一操作通常适用于Scrapy框架下的项目。 ```python # Scrapy项目的settings.py文件中 COOKIES_ENABLED = True ``` #### 手动获取并传递Cookie 如果目标网站(如豆瓣)需要用户先完成登录才能访问某些资源,则可以手动登录后提取Cookie,并将其嵌入到HTTP请求头中发送给服务器[^2]。具体方法如下: 1. 登录目标站点; 2. 利用浏览器开发者工具查看网络请求详情,从中复制有效的Cookie字段; 3. 将这些Cookie附加至爬虫发出的每一个请求头部。 ```python import requests url = 'https://movie.douban.com/top250' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)', 'Cookie': '_your_cookie_string_here_', } response = requests.get(url, headers=headers) print(response.text) ``` #### 高性能异步多进程实现 针对大规模数据采集场景下效率提升的需求,可采用Python内置库或其他第三方库配合map函数执行并发任务,从而提高整体运行速度[^3]。不过需要注意的是,在这种情况下仍需妥善保存及更新各子进程中使用的Cookies以保持会话一致性。 #### 绕过反爬措施 面对可能存在的验证码校验环节以及其他形式的防护手段时,建议优先尝试模仿合法客户端的行为模式而非单纯依赖OCR技术解析图形验证码[^4]。例如调整Request Headers里的Referer、Accept-Language等属性使之更贴近实际浏览环境;同时控制好抓取频率以免触发IP封禁策略。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值