scrapy爬虫踩的坑

1.scrapy创建爬虫,cd进入爬虫的项目文件夹,输入:scrapy genspider zhihu03 www.zhihu.com

  打开pycharm发现新增一个zhihu03.py

 

2.爬取网页时,当我们爬取(table)中的内容时,用xpath解析不到表格中td的值

  原因:浏览器会在table标签下添加tbody(注:在chrome、火狐测试都有这个情况。出现这种原因是因为浏览器会对html文本进行一定的规范化 )

  解决方法:解决方法:使用scrapy 时将分析出的xpath 中的 tbody 去掉即可。

  参考自:https://blog.youkuaiyun.com/lishk314/article/details/44916827

3.scrapy模拟登录知乎时,输入验证码后出现“缺少验证码票据”,在settings.py将cookie设置为如下:

COOKIES_ENABLED = True

转载于:https://www.cnblogs.com/zzzzzhangrui/p/8687483.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值