爬虫【2】重构UserAgent

爬虫回顾:

爬虫【2】重构UserAgent

思考:网站如何来判定是人类正常访问还是爬虫程序访问???

网站检测爬虫的一种最基本的方法就是查看请求头,这里我们有一个可以查看自己请求头的网站 http://httpbin.org/get ,如果用浏览器去浏览可以得到这样一个图片,UserAgent可以显示一些信息
在这里插入图片描述
然而当你用python去访问的时候:
在这里插入图片描述
所以当我们使用爬虫去访问网页的时候,一定要伪装自己的请求头,否者一下就被识破了

重构请求头

urllib.request.Request

  • 作用
    创建请求对象(包装请求,重构User-Agent,使程序更像正常人类请求)
  • 参数
1、url:请求的URL地址
2、headers:添加请求头(爬虫和反爬虫斗争的第一步)
  • 使用流程
1、构造请求对象(重构User-Agent)
2、发请求获取响应对象(urlopen)
3、获取响应对象内容

这个被我教程初学阶段的爬虫三板斧

  • 如何伪造User-Agent
    很简单——百度啊,下面我列出了常用的User-Agent
User-Agent:的值
 
1) Chrome(谷歌)
Win7:
Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1
Win10:
Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36
Chrome 17.0 – MAC
Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11 
 
 
2) Firefox(火狐)
Win7:
Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0
Firefox 4.0.1 – MAC
Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:2.0.1) Gecko/20100101 Firefox/4.0.1
 
 
3) Safari(Safari是苹果计算机的操作系统Mac OS中的浏览器)
safari 5.1 – MAC
Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10_6_8; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50
safari 5.1 – Windows
Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50
 
 
4) Opera(欧朋浏览器可以在Windows、Mac和Linux三个操作系统平台上运行)
Opera 11.11 – MAC
User-Agent:Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11
Opera 11.11 – Windows
User-Agent:Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11
 
 
5) IE
IE 11
Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko
IE 9.0
Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0;
IE 8.0
Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0)
IE 7.0
Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0)
IE 6.0
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)
WinXP+ie8:
Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; GTB7.0)
WinXP+ie7:
Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)
WinXP+ie6:
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1)
 
6) 傲游
傲游(Maxthon)
User-Agent: Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)
 
 
7) 搜狗
搜狗浏览器 1.x
Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Trident/4.0; SE 2.X MetaSr 1.0; SE 2.X MetaSr 1.0; .NET CLR 2.0.50727; SE 2.X MetaSr 1.0)
 
 
8) 360
User-Agent: Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; 360SE)
 
9) QQ浏览器
User-Agent: Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; TencentTraveler 4.0)
  • 示例
    向测试网站(http://httpbin.org/get)发起请求,构造请求头并从响应中确认请求头信息
from urllib import request

url = 'http://httpbin.org/get'
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 '
                        '(KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1'}
# 1. 创建请求对象-并未真正的发请求
req = request.Request(url,headers=headers)
# 2. 获取响应对象
res = request.urlopen(req)
# 3. 读取对象
html = res.read().decode('utf-8')
print(html)
<think>我们正在处理一个关于使用Python爬虫抓取手机App数据的问题。用户希望得到教程指导。 根据系统指令,我们需要: 1. 使用中文回答 2. 行内数学表达式用$...$,独立公式用$$...$$ 3. 正确使用LaTeX语法(但本问题可能不涉及数学公式,所以可能不需要) 4. 生成相关问题 5. 在引用的段落末尾添加引用标识(注意:我们只能引用提供的三个引用内容,并且要自然添加) 提供的引用内容: 引用[1]:介绍了APP数据抓取的基本流程、工具和Python依赖。 引用[2]:提供了一个豆瓣网页数据抓取的示例,但用户需要的是APP数据抓取,所以这个引用可能不太相关,但我们可以参考其请求和解析的方法。 引用[3]:展示了一个APP接口请求的示例,其中包含了一些参数。 用户需求:使用Python编写爬虫来抓取手机App数据。 根据引用[1],我们可以总结出抓取APP数据的一般步骤: 1. 安装并配置抓包环境(如Fiddler、Charles、Mitmproxy) 2. 抓取真实APP请求并分析接口 3. 提取必要的参数(如Headers、Token、Sign等) 4. 使用Python重构请求,实现自动化数据抓取 5. 存储结果(CSV、数据库、JSON等) 因此,我们的回答应该围绕这些步骤展开。 注意:由于用户要求的是教程,我们将按照步骤进行讲解,并尽可能提供代码示例。 另外,由于引用[3]提供了一个具体的请求参数示例,我们可以参考它来展示如何构造请求。 步骤详细说明: 第一步:环境与工具准备 - 模拟器:用于在电脑上运行手机APP(如夜神模拟器、雷电模拟器等) - 抓包工具:用于捕获APP发出的网络请求(如Charles、Fiddler、Mitmproxy) - 安装Python依赖:requests(用于发送HTTP请求)、mitmproxy(用于中间人攻击抓包,也可以用于脚本扩展)等 第二步:配置抓包环境 - 以Charles为例:安装Charles,设置代理(通常为电脑的IP和8888端口),然后在模拟器或手机中设置相同的代理。 第三步:抓取并分析APP请求 - 启动抓包工具,然后在APP中进行操作,抓包工具会记录所有的网络请求。 - 找到我们关心的数据请求,分析其请求方法(GET/POST)、URL、请求头、请求参数等。 第四步:提取必要参数 - 通常APP的接口会有一些验证参数,如Token、Sign(签名)等,这些需要从请求中提取并分析生成规则。 第五步:使用Python重构请求 - 使用requests库模拟请求,注意携带必要的请求头和参数。 第六步:存储数据 由于引用[2]是网页抓取的例子,我们可以参考其请求和解析的方式,但APP接口返回的通常是JSON数据,所以解析会更简单。 下面我们按照这些步骤来编写教程。</think>### Python爬虫抓取手机App数据教程 以下是使用Python抓取手机App数据的详细步骤,基于引用[1]的核心流程: #### 1. 环境准备 - **抓包工具**(用于捕获App网络请求): - Charles(支持HTTPS代理)[^1] - Fiddler(轻量级工具) - Mitmproxy(支持Python脚本扩展)[^1] - **模拟器**(可选): - 夜神模拟器/Nox - 雷电模拟器/LDPlayer - **Python库安装**: ```bash pip install requests mitmproxy rich prettytable ``` #### 2. 抓包分析接口 1. 配置抓包工具的代理(通常为`IP:8888`) 2. 在手机/模拟器设置中配置相同代理 3. 操作目标App,观察抓包工具捕获的请求 4. 定位数据接口(通常返回JSON格式): ```http GET /api/data?timestamp=1625550000&sign=afe4c... HTTP/1.1 Host: app.example.com Authorization: Bearer xxxxx User-Agent: Dalvik/2.1.0 ``` #### 3. 提取关键参数(以引用[3]为例) ```python params = { 'timestamp': '1625550000', # 时间戳 'phoneBrand': 'Meizu', # 设备品牌 'platform': '1', # 平台标识 'sign': 'afe4c...' # 加密签名[^3] } headers = { 'Authorization': 'Bearer xxxxx', 'User-Agent': 'AppClient/7.2.1' } ``` #### 4. Python重构请求(示例代码) ```python import requests import json url = "https://app.example.com/api/data" params = { "timestamp": "获取动态时间戳", "sign": "计算签名值" # 需逆向分析签名算法 } headers = { "User-Agent": "Mozilla/5.0 (Linux; Android 10)", "Authorization": "Bearer token_value" } response = requests.get(url, params=params, headers=headers) if response.status_code == 200: data = response.json() print(json.dumps(data, indent=2, ensure_ascii=False)) ``` #### 5. 数据处理与存储 ```python # 存储到JSON文件 with open('app_data.json', 'w', encoding='utf-8') as f: json.dump(data, f) # 存储到CSV(示例) import csv with open('data.csv', 'w', newline='') as csvfile: writer = csv.DictWriter(csvfile, fieldnames=data[0].keys()) writer.writeheader() writer.writerows(data) ``` #### 关键注意事项 1. **动态参数处理**:多数App接口使用动态token和签名,需逆向分析生成逻辑 2. **反爬机制**: - 使用随机请求头(`fake_useragent`库) - 添加请求延迟(`time.sleep(random.uniform(1,3))`) 3. **HTTPS证书验证**:抓包时需安装抓包工具的根证书 4. **法律合规性**:确保遵守目标App的`robots.txt`和服务条款
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值