- 博客(7)
- 收藏
- 关注
原创 数据分析:pandas
把数据中的第一列设置为index:import numpy as npimport pandas as pdimport osimport csvpath=os.getcwd()+'\\data.csv'f=open(path)users=pd.read_csv(f,index_col='item')print(users.head(10))
2021-06-04 10:29:41
123
原创 如何用python打开csv文件?
在进行时间序列数据分析时,经常用pandas进行数据处理。同样也会打开实现“清洁"好的数据,具体代码如下:import pandas as pdimport osimport csvpath=os.getcwd()+'\\ex5.csv'#查找当前工作目录,也就是该py文件所在的目录f=open(path,encoding='utf-8')df=pd.read_csv(f)print(df)...
2021-05-20 22:13:55
1041
原创 python笔记之:scipy.integrate和def __init__
1、求积分from scipy.integrate import quad(一重积分)、tplquad(二重积分)、dblquad(三重积分)function=lambda:函数的具体形式area,error=quad(function,上界,下界)#area为积分结果,error为误差print(area)2、初始化class market: def __init__(self,参数):...
2021-05-12 09:37:48
145
原创 解析数据的三大工具:re、bs4和xpath
1、re模块预加载正则表达式:import reimport csvobj=re.complie(r'#')reader=obj.finditer(resp.text)for it in reader: ul=it.group('#')f=open('#.csv',mode='w',encoding='utf-8')csvwriter=csv.writer(f)2、bs4把页面源代码交给BeautifulSoup处理,生成源数据从bs中查找数据from bs4 import B
2021-05-05 15:57:26
703
原创 爬取数据的保存
无论是re、bs4还是xpath在进行数据爬取时,需要进行保存。但打开时会出现乱码现象,比如是这样:此时,作为一个初学者来讲,不得不去看看哪里出现了问题。这时只需添加一个encoding,以utf-8的编码打开就可以啦:f = open("price.csv", mode="w",encoding='utf-8')csvwriter = csv.writer(f)...
2021-05-02 15:18:15
242
原创 简易爬虫(requests&re)
在日常的工作或者学习中,经常需要从网页中获取需要的文件,python成了一个很好的工具。requests可以获取需要待提取的大量网页内容。第一步,安装requestspip install requests第二步,requests常用的命令格式import requestsURL='网址'headers={'User ageny':'对应的具体代码'}resp=requests.get(url)print(resp.text)第三步,解析数据利用re进行解析obj=re.comp
2021-04-29 15:11:37
160
原创 如何更改jupyter notebook的更改路径
1、在cmd中输入jupyter notebook --generate-config,打开jupyter_notebook_config.py2、在jupyter_notebook_config.py中,输入如下命令:import webbrowserwebbrowser.register(‘chrome’,None,webbrowser.GenericBrowser(u***“C:\Program Files (x86)\Google\Chrome\Application\chrome.exe*
2021-02-07 09:44:57
151
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人