- 博客(5)
- 收藏
- 关注
原创 使用 requests+lxml 库的 Python 爬虫实例(以爬取网页连载小说《撒野》为例)
需求目标介绍使用 requests 库与 lxml 库进行简单的网页数据爬取普通框架与爬虫实例,本文以爬取网页连载小说《撒野》为例~当然有很多小说基本都能找到现成的 .txt 或者 .mobi 文件,不过有些又是注册登录,又是关注公众号啥的,我干脆写几行代码自己爬下来,之后有需要略微改下网页链接就行,一劳永逸~哈哈哈哈requests+lxml 爬虫框架1、一般通过 requests 库的 get(url, headers = header) 方法获取 html 页面,可以根据状态码判断是否
2020-11-17 10:27:35
4502
原创 Python 边用边学
文章将会整理记录下我在用 Python 的过程中所遇到的一些知识和小问题,这样印象比较深刻,也方便自己回头看看不至于每次都去查同样的内容。
2020-02-22 22:41:33
372
原创 通过requests包爬虫response.text中文乱码
问题:今天在用requests包爬虫的时候输出response.text的时候中文乱码:解决办法:查看爬取网页源代码中的编码方式:在代码中加入response的编码方式即可。response = requests.get(url, headers = headers)response.encoding = 'gb2312'...
2019-09-26 11:18:42
4208
原创 win10+python3下Anaconda的安装及环境变量配置
conda:无法将“conda”项识别为cmdlet、函数、脚本文件或可运行程序的名称。请检查……
2017-11-03 16:41:36
117769
9
原创 python导入词云包失败:ImportError:cannot import name ‘WordCloud’的解决办法
python正常安装wordcloud包,但还是提示ImportError:cannot import name ‘WordCloud’的解决办法……
2017-11-02 16:51:29
13514
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅