- 博客(10)
- 收藏
- 关注
原创 统信UOS使用Spyder兼解决离线安装包问题
统信UOS安装anaconda使用Spyder,找到合适的离线安装包,安装xlwings和其他插件
2023-07-27 16:16:07
662
1
原创 统信UOS安装Anaconda使用jupyternotebook
适用于统信UOS,离线环境个人单机使用JupyterNotebook和Python3.9。
2022-09-09 16:31:27
4768
6
转载 Python爬虫的xpath基础使用小结
xpath和正则、bs4都属于解析网页源码的方法,一般来说应该bs4最简便、用的最多吧?这部分可以当个web基础来看综合百度、部分网上的文章和学到的内容,写个初版本,还有函数什么的老师没讲我也就没看。关于xpath(太过概念了感觉基本可以跳过直接看代码来理解)XPath=XML路径语言(XML Path Language),是一种用来确定XML文档中某部分位置的语言。XML文档被作为节点...
2019-07-08 00:23:55
263
2
转载 基础爬虫框架小结——使用requests库
将前序urllib总结中的各项功能用更简单实用的requests库方法替代七大方法之1:get()包含了添加请求头、查看cookies、保存为html或json文件、内网认证、免费代理、ssl证书问题的代码:import requestsimport randomurl="https://www.baidu.com"url='https://www.baidu.com/s?wd=美女'...
2019-07-04 23:08:08
289
转载 记2个pycharm有用的快捷键——注释多行代码+减少缩进
最近刚发现注释掉一段代码除了用’’’ ‘’'还有选中多行之后ctrl+/后者实在太方便了吧,去掉注释就再ctrl+/一次小白刚发现。。。还有什么好用的快捷键没?留言讨论一下...
2019-07-02 06:57:05
348
转载 简单总结一下目前学到的基础爬虫框架
基于Python3自带的urllib库是其他库的基础,但实际都用其他库,更加方便快捷,这里就是个基础知识。除了展示了一个基本框架,还加入了一点反扒方法。try excep略1.添加随机请求头(User-Agent)——隐藏真实浏览器获取网址import urllib.requestimport randomurl=" "request=urllib.request.Requ...
2019-06-30 01:05:43
190
转载 Python里的strip()是个好实用的方法哦
默认删除空白符(包括’\n’, ‘\r’, ‘\t’, ’ ')对于爬数据如果出现空白符,只要写的时候加个.strip()Python真是太方便了!简洁之美【转】python strip()函数和Split函数的用法总结strip()的意思是删除;split()的意思是分割。strip函数原型声明:s为字符串,rm为要删除的字符序列. 只能删除开头或是结尾的字符或是字符串。不能删...
2019-06-28 06:58:21
1696
原创 记一个遇到的requests库编码的小问题
今天刚开始看MOOC的爬虫课程,在开头看见老师给的通用爬虫框架有这么一句r=requests.get(url)r.encoding=r.apparent_encondingreturn r.text这里其实是存在2个问题的:requests库的content与text这个是开课8老师提过的content返回类型是strtext返回类型是Unicode,所以需要指定一下编码形式,不...
2019-06-25 00:08:00
163
2
原创 记录一下pycharm想用xpath遇到的坑们
pycharm导入lxml阶段在pycharm的setting里面install了lxml,然后代码输入“from lxml import etree”,etree标红,下面也出不来HTML方法。搜了一下网上各种方案,有说降版本的,有说不用的,各种试都不行。最后受启发决定用pip install一下。pip install也tm坑pip install的时候提示我升级,于是我就升了...
2019-06-23 23:40:59
3865
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人