- 博客(10)
- 收藏
- 关注
原创 【VBA】关于TXT文件的基础读取
根据姓名判断部门,根据桌面的TXT文件导入Function Read_NameList() As Object' 读取桌面TXT名单 Dim FileName As String Set NameListDic = CreateObject("Scripting.Dictionary") FileName = "D:\Desktop\NameList.txt" ...
2019-03-02 20:19:11
3620
原创 【Matplotlib】设置X轴坐标显示为月份
import calendardaysbym = []for i in range(1, 13): daysbym.append(calendar.monthrange(2016, i))dt = np.dtype([('weekday','i4'),('dnum','i4')])date_arr = np.array(daysbym, dtype=dt)date_arr['...
2019-02-06 15:49:05
8388
原创 【Python 基础】Matplotlib模块
MatplotlibJupyter 下是使用: % matplotlib inlineimport matplotlib.pyplot as pltplt.plot([1,2,3])plt.xlable('')plt.ylable('')plt.show()plot(x, y)plot(x1, y1, x2, y2)plot(y)plot[x, y, [fmt]]plt.t...
2019-02-06 11:46:36
262
原创 【Python 基础】Numpy 模块
user_docsarrayimport numpy as nparray(object,dtype=None,copy=True,order='K',subok=False,ndmin=0)# obj: data# dtype: data type# order: list# ndmin: dimintionnd = np.array((1,2,3,4))nd.dtypend...
2019-02-05 20:34:01
170
原创 【Python 基础】Urllib模块的基础(Introduction of Urllib module)
Urllib moduleTo gain server resourceurllib.request # process protocals extended huburllib.response # urllib.parse # parse urlurllib.error # error classreq = request.urlopen(url, data, tim...
2019-01-29 22:30:46
130
原创 【selenium 初学】
Phonetomjs基于 webkit 的 javascriptApidownload urlmirror urladd to environment variablesSelenuimdriver:chorme versionfirefox versionadd to environment variablesselenuim version should suit ...
2019-01-27 17:11:39
188
原创 【Pandas 新手练习题】
Pandas 新手练习题GitHub的链接:pandas_excercise_github仅摘录不熟练的语句,详细内容请查看上述链接1、得到和认识你的数据介绍 pandas 中几个常用的函数和属性df.head()df.tail()df.shapedf.infodf.columnsdf.indexdf.groupby([])df.sort_value(['column_na...
2018-11-11 22:49:45
1676
原创 【Python 数据分析基础】
一、Python基础1. glob 模块读取多个文件for input_file in glob.glob( input, '*.txt'): #这个是使用 *.txt结尾的文件名匹配 with open(input_file, 'r', newline='') as f: for row in f: pass2. 写入文本文件python 有两种写入文件方式:writ...
2018-10-18 23:46:53
173
原创 【Excel】利用SQL抓取数据
在 Excel 中对外部数据实现自动链接,并在数据源更新时,刷新数据。Excel实现的工具栏路径:数据-现有链接直接引用表select * from [数据$]直接关联多张表select * from [苏州 $] union all select * from [无锡$] union all select * from [昆山$]筛选数据条件select * from...
2018-10-07 21:44:12
2818
原创 【Python爬虫】反扒机制与高并发爬虫设计
一、服务器反扒机制及策略1. 反扒机制1.1 User-Agent限制解决方案:拷贝浏览器的头信息用Fakeuseragent模块pip install fake-useragent1.2 短时间内限制IP访问次数解决方案:采用IP代理,利用代理网站爬取多个代理IP2. 账户控制2.1 限制页面登陆解决策略:登陆网站后,记录Cookies的值2.2 账户IP异常登陆...
2018-10-06 22:10:52
5147
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅