爬虫匹配数据失败的原因

今天碰到一个匹配数据失败的问题,用谷歌浏览器的xpath插件,在网页上能匹配到数据,复制到代码中,匹配为空。

这是浏览器插件中的匹配结果
这是代码匹配的结果

解决办法

将响应的代码保存下来,查看响应的html页面对应的位置有啥区别
在这里插入图片描述
这里可以看到。我们得到的页面中跟网页上显示的有点不一致,网页上的是src,我们得到的是src2,所以修改我们的xpath选择器就可以匹配出我们需要的数据。
在这里插入图片描述

总结

出现这种情况是因为,当网站有很多图片时,网站会用到图片懒加载技术,即当网站图片过多时,出现在可视范围内的图片才会被加载,当我们用requests请求时,请求的数据不会出现在可视范围内,所有我们需要请求的是还未加载的数据,即src2.
这也算得上是一种反扒机制了吧,遇到问题不要慌,分析一下,只要思想不滑坡,办法总比困难多。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值