
数据分析
文章平均质量分 76
FOUR_A
免责声明:资料部分来源于合法的互联网渠道收集和整理,部分自己学习积累成果,供大家学习参考与交流。收取的费用仅用于收集和整理资料耗费时间的酬劳。 本人尊重原创作者或出版方,资料版权归原作者或出版方所有,本人不对所涉及的版权问题或内容负法律责任。如有侵权,请举报或通知本人删除。
联系方式(企鹅号):2665000101
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【数据分析】评估清理数据实战【淘宝母婴购物数据集】
Ali_Mum_Baby 是一个数据集,其中包含 900 多万条儿童信息(生日和性别),这些信息由消费者提供,他们分享这些信息是为了获得更好的推荐或搜索结果。原创 2024-07-05 16:38:39 · 1593 阅读 · 0 评论 -
【数据分析】通过python分析提取matlab工作区中的数据
该代码的主要目的是从MAT文件中读取数据,并将其中包含的各种性能指标提取出来,存储到多个Pandas DataFrame中。每个结果DataFrame的行和列是tau_1和tau_2的组合,存储对应的psnrs_meanssims_meanfsims_mean和ergas_mean值。原创 2024-07-03 20:39:52 · 628 阅读 · 0 评论 -
爬虫的浏览器伪装
import urllib.requesturl = "网址"headers = ("User-Agent","内容")opener = urllib.request.build_opener()opener.addheaders = [headers]data = opener.open(url).read()fh = open("网址")fh.write(data)...原创 2019-07-10 22:04:40 · 382 阅读 · 0 评论 -
爬取网页中的qq号
pat = "<em>QQ:(.*?)</em>"import urllib.requestdata = urllib.request.urlopen("网址").read()result = re.compile(pat).findall(str(data))print(result)原创 2019-07-06 16:57:50 · 431 阅读 · 0 评论 -
urllib库实战
一,1,基础urlretrieve:urlretrieve("网址",filename = "本地目录/命名") 将网站下载至本地urlcleanup(): 清理缓存方法:info(): 获取网页信息getcode():状态码geturl(): 获取当前网址是什么2.超时设置timeoutfile = urllib.request.urlopen("网址"...原创 2019-07-10 21:50:17 · 156 阅读 · 0 评论 -
爬虫防屏蔽 代理服务器
import urllib.requestdef use_proxy(url,proxy_addr):proxy=urllib.request.ProxyHandler({"http":proxy_addr})opener = urllib.request.build_opener(proxy,urllib.request.HTTPHandler)urllib.request...原创 2019-07-16 16:12:36 · 533 阅读 · 0 评论 -
scrapy
scrapy genspider demo +域名原创 2019-07-23 15:55:46 · 104 阅读 · 0 评论