爬虫使用多个user-Agent

为什么要使用多个user-Agent?

因为我们的爬虫到时候是一直循环的,每次爬取的时间间隔较短,目标网页容易发现同一个浏览器浏览太快这个漏洞,导致爬取不顺利,所以使用多个user-Agent来进行爬取访问,是一个随机的过程

怎么样使用?

以一个简单的爬取百度标题为例

import random
from urllib import request
import re

url = 'http://www.baidu.com'

userAgent = ['Mozilla/5.0 (Linux; U; Android 8.1.0; zh-cn; BLA-AL00 Build/HUAWEIBLA-AL00) AppleWebKit/537.36 (KHTML, like Gecko) Version/4.0 Chrome/57.0.2987.132 MQQBrowser/8.9 Mobile Safari/537.36',
             
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值