用selenium+requests进行爬虫,使用Python3
爬取动态页面
获取页面信息F12-network-XHR-在页面中点击下一页-找到list相关文件-headers


使用GET方法
requests.get(url,params = query,headers=headers)太坑了!!!
request.post(url,data=data)//post方法是否适用未经验证,仅做参考
之前一直使用的是
requests.get(url,params = query)
一直不能实现翻页,直到遇见了如何解决python爬虫中Response [200]返回值问题这个博客,醍醐灌顶,解决了困扰我许久的问题
附上最后代码
下面展示一些 内联代码片。
// An highlighted block
headers={
'User-Agent':

使用selenium+requests爬取动态页面时遇到问题,尽管requests.get响应码为200,但无法实现翻页。通过查看F12-network-XHR找到相关文件,并尝试GET和POST方法。参考相关博客解决了200响应码下无法翻页的困扰,但之后再次出现失效情况,可能因服务器检测到爬虫。目前问题未彻底解决。
最低0.47元/天 解锁文章
9215





