
Python爬虫
gxiskobe
这个作者很懒,什么都没留下…
展开
-
Scrapy爬取知乎用户信息遇见的问题
首先在将ROBOTSTXT_OBEY设置成False之后运行爬虫进行测试,发现错误,错误码为500.经检查发现是缺少User-Agent.在setting中找到DEFAULT_REQUEST_HEADERS,添加上User-Agent.再次运行爬虫,爬取成功。然后进行个人主页爬取,再次发现错误,错误码为401查询后发现是缺少请求头authoriz原创 2017-07-04 16:05:00 · 738 阅读 · 1 评论 -
Redis环境配置
百度Redis 菜鸟教程中选择Redis安装在Github上寻找资源,MSOpenTech/redis 选择要下载的版本安装RedisDesktopManager在Github上寻找资源原创 2018-07-16 15:57:34 · 188 阅读 · 0 评论