本来是用Scriper框架做的 浏览 浏览 浏览 又找到了这个Pyspider 也可以做 于是技多不压身 于是了解且练了一下手,你且看好!!走 啊 走啊 走啊 忽然报错 以开始 是报
[E 180628 16:05:42 base_handler:203] HTTP 599: SSL certificate problem: unable to get local issuer certificate
Traceback (most recent call last):解决办法就是:加上红色区域内的那句话就可以了!!

结果 然后 终于 变成这个错了让我很尴尬

意思就是"crawl()方法中没有 alidate_cert=False这个关键字"那就只有更换pyspider
去Git 下载源码 然后找到对应的pyspider 文件替换之前安装路径下面的pyspider文件即可(路径 一般都在sit-packge下 视情况)
ok
在尝试使用Pyspider进行爬虫项目时,遇到crawl方法报错,提示关键字参数'alidate_cert=False'未被接受。问题根源在于crawl方法不支持此参数。为解决这个问题,选择了从GitHub下载Pyspider源码,并替换已安装的pyspider库中的相应文件,通常位于site-packages目录下。经过替换,错误成功得到解决。
1283

被折叠的 条评论
为什么被折叠?



