有时使用爬虫发送请求时无法正常获取返回结果,那么需要设置一个本地的代理,每次发送请求时会随机调用参数信息,服务器那边就不会屏蔽了
class my_useragent(object): # 设置用户代理 防反爬虫,每爬一条数据 切换一次代理
def process_request(self):
# user_agent 列表
USER_AGENT_LIST = [
"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36 QIHU 360SE",
"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36",
"Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN) AppleWebKit/523.15 (KHTML, like Gecko, Safari/419.3) Arora/0.3 ("
"Change: 287 c9dfb30)",
"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 "
"Safari/537.36",
]
# 随机生成user_agent
agent = random.choice(USER_AGENT_LIST)
return agent
#设置谷歌驱动参数时使用:
ur = my_useragent()
option.add_argument('--user-agent=' + ur.process_request())

使用爬虫发送请求时可能无法正常获取返回结果,此时可设置本地代理。设置后每次发送请求会随机调用参数信息,避免服务器屏蔽,保障请求正常返回。
5714

被折叠的 条评论
为什么被折叠?



