
python
岁月如梭518
喜欢对新知识的探索,对大数据的爬取,清晰,可视化方面的内容比较感兴趣。
使用博客的目的:人到中年,记忆力逐渐衰退,看完、学完的知识很快就忘了,为提高学习效果,加深对所学知识的理解,每天坚持抽点时间将所学东西梳理下。
展开
-
爬虫实例6(获取哔哩哔哩网站《后浪》弹幕并可视化显示)(pyecharts词云,pandas库)
声明,只用于学习研究爬虫1.《后浪》弹幕词云如下2.代码流程一是分析网站,弹幕是和视频是分离,在开发者工具里面找到弹幕的网址。二是请求网站。获取到网址后request三是解析网站四是制作词云3.完整代码#!/usr/bin/python#导入相关库import requests,json,pandasfrom bs4 import BeautifulSoupfrom pyecharts import WordCloud#请求网页def get_html(url):原创 2020-05-10 13:04:17 · 1121 阅读 · 1 评论 -
爬虫实例5(爬取房天下二手房信息)(网页重定向,字典数据存入csv文件,bs4)
爬取要点分析1.网页重定向分析房天下网站,每个网页有个重定向如:访问https://cd.esf.fang.com/chushou/3_211293494.htm会跳转至https://cd.esf.fang.com/chushou/3_211293494.htm?rfss=1-b71f212cbb874a451c-3a解决方法:在原网页源代码中找到重定向网址,request 新网址即可 response=requests.get(url,headers = headers) html=r原创 2020-05-10 10:45:03 · 2344 阅读 · 3 评论 -
Pyecharts可视化神器安装与使用
Pyecharts可视化神器安装与使用1.Pyecharts简介pyecharts 是一个用于生成 Echarts 图表的类库。Echarts 是百度开源的一个数据可视化工具,凭借着良好的交互性,精巧的图表设计,得到了众多开发者的认可。用 Echarts 生成的图可视化效果非常棒,为了与 Python 进行对接,方便在 Python 中直接使用数据生成图,pyecharts就此产生,所以也可以...原创 2020-05-08 16:05:42 · 472 阅读 · 0 评论 -
python中的列表、字符串和字典小知识
#对于字符串来说str.title()用于标题化字符串,每个单词大写str='i love you ,honey'#output:I Love You ,Honey#对于列表来说,返回的列表的值list=['list1','love','honey','babay']for num in range(len(list)): print(list[num].title())"...原创 2020-05-07 15:56:29 · 181 阅读 · 0 评论 -
BeautifulSoup库详解(个人整理)
1.解析库灵活又方便的网页解析库,处理高效,支持多种解析器。利用它不用编写正则表达式即可方便地实现网页信息的提取。安装:pip3 install BeautifulSoup4解析器使用方法优势劣势Python标准库BeautifulSoup(markup, “html.parser”)Python的内置标准库、执行速度适中 、文档容错能力强Python 2.7...原创 2020-05-02 05:37:04 · 8235 阅读 · 1 评论 -
简单网络爬虫教程
爬虫使用程序来获取我们需要的网络上的内容,如文字,视频,图片等信息 等。使用工具Python3.7 Pycharm编写流程步骤一:请求网站,下载网页内容url = "http://www.baidu.com"#如果访问的网页地址有规律,可以批量的构造网页#如:urls =['http://xa.xiaozhu.com/search-duanzufang-p{}-0/'.format...原创 2020-05-01 22:47:29 · 982 阅读 · 0 评论 -
爬取网页内容实例2
简介本实例爬取了该网站有关python3的所有教程,并将其结果保存在contents.txt文件中。代码:import requests #导入网页请求库from bs4 import BeautifulSoup #导入网页解析库import parserdef start_requests(url): headers = { 'User - Agent': '...原创 2020-05-01 20:51:40 · 357 阅读 · 0 评论 -
使用python制作词云(重点对jieba库和wordcloud库进行介绍)
在海量数据中提取有效的信息,词云不愧是一种有效解决此类问题的方法,他可以突出显示关键词,快速提取有价值的信息。Python制作词云很简单,要求不高的话,几行代码就可以搞定,主要使用的库有jieba(结巴,一种分割汉语的分词库)和wordcloud库。下面是我参考网上一些代码改编的,还有效果图,初学,钻研的还不够深。# Created by 老刘 on 2020/5/1import PIL....原创 2020-05-07 09:23:34 · 1630 阅读 · 0 评论 -
爬取网站内容实例1
最近,对爬虫比较感兴趣,感觉很神秘,很牛逼的样子,特别是别人做的周杰伦词云后,顶礼膜拜。所以就看了些资料,写了部分代码,闲来无事,就放在博客里,便于以后查用。原创 2020-05-01 06:38:10 · 357 阅读 · 0 评论