
网络爬虫
文章平均质量分 53
mezhuangzhuang
学习中
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
使用urllib.request.urlretrieve()函数设计一个下载器
参考 Python document目录1. 代码格式2. 函数功能描述3. 参数说明4. 案例说明——使用该函数设计一个下载器1. 代码格式urllib.request.urlretrieve(url, filename=None, reporthook=None, data=None)2. 函数功能描述将URL表示的网络对象复制到本地文件。如果URL指向本地文件,则对象将不会被复制,除非提供文件名。返回一个元组(filename,header),其中filena原创 2021-02-02 18:00:00 · 393 阅读 · 0 评论 -
urllib.error.URLError: urlopen error [SSL: CERTIFICATE_VERIFY_FAILED]
1.urllib.error.URLError: <urlopen error [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:833)>2.# 全局取消证书验证import sslssl._create_default_https_context = ssl._create_unverified_context原创 2021-01-28 15:40:18 · 144 阅读 · 0 评论 -
scrapyd 的安装
scrapyd的安装 Scrapyd是一个用于部署和运行Scrapy项目的工具,有了它,你可以将写好的Scrapy项目传到云主机并通过API来控制它的运行。 本文介绍的是Scrapyd在Linux上和mac上的安装流程。1. 相关链接GitHub:https://github.com/scrapy/scrapyd PyPI:https://pypi.python.org/pypi/scrapyd 官方文档:https://scrapyd.readthedocs....原创 2021-01-27 17:14:08 · 440 阅读 · 0 评论 -
Mac安装Scrapy及踩坑经验
Mac下安装Scrapy,有点小麻烦,但是解决后发现了其实也不难。问题:我在pycharm里面安装scrapy 运行scrapy完全没有问题。显示图片如下:这个意思就是scrapy好使的意思了。我在macbook电脑上开始一波pip install scrapy下面就是见证智障的时刻了。问题一:scrapy: command not found OSError:...原创 2018-09-25 00:10:55 · 1615 阅读 · 0 评论 -
Mac安装tesserocr出错
已经安装了tesseract以及其他一些包,但是pip install tesserocr还是出错,找了很多原因。 最后回过头来仔细读了错误提示(大概是can't find the "cstdint",没记录),才恍然大悟! 解决方法:将tesseract里面host.h文件里的include<cstdint>改为include<stdint.h>,顺利解决。...原创 2018-09-25 10:23:09 · 1429 阅读 · 2 评论 -
[Mac]安装pyspider的大坑
1.切记这是一个大坑。2.我在用mac电脑安装pyspider的时候,原以为pip install pyspider 就万事大吉,合家欢乐了,but the question 比较多。第一个问题:我一共就遇到这一个问题:所以我就只说这一个问题的解决方法,并且是只针对mac电脑的,其他操作系统的问题,我就解决不了了。(1)装pyspiderpip3 install pys...原创 2018-09-27 00:57:19 · 2110 阅读 · 2 评论 -
ssl.SSLError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:833)
怎么办?Traceback (most recent call last): File "/Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/urllib/request.py", line 1318, in do_open encode_chunked=req.has_header('Transfer-...原创 2018-10-22 22:59:11 · 1137 阅读 · 1 评论 -
爬取noi官网所有题目分析
最近自学,写了几个小脚本,一个脚本是爬取某东全网的所有数据,但是由于这个比较费时间 = =数据量也有点儿大。没具体爬一波,就爬了几个分类。今天这个小项目,是爬取noi的官网的所有题目,其实题目量比较小了,一个多小时也就写完了,才几百个,和jd官网的几千万差距是有点儿大的。现分析一下怎么爬取的,在粘贴一波代码。第一步:观察网页先观察一波noi的官网的网页的题目分类。大概就是这...原创 2018-11-10 21:44:34 · 2895 阅读 · 0 评论