
Python
Siumai
此人不懒,但什么都不想写
展开
-
[n, h, w, c]转[n, c, h, w]
由于Pytorch默认图片数据格式为[n, c, h, w]、rgb,因此若数据集为[n, h, w, c]格式时需要进行转换:# 为便于处理,先转为numpy数组x = np.array(trainset['train_set_x'])x.shape, type(x)# ((1080, 64, 64, 3), numpy.ndarray)x = x.transpose([0, 3, 1, 2])x = t.as_tensor(x)x.size()# torch.Size([1080, 3原创 2020-08-12 17:27:31 · 1800 阅读 · 0 评论 -
Python爬虫常用库(三)selenium
一、声明浏览器对象from selenium import webdriveroption = webdriver.ChromeOptions()option.add_argument("--headless")'''Chrome无头模式'''browser = webdriver.Chrome(options = option)二、访问页面 Chrome().get(url...原创 2020-08-12 11:46:54 · 343 阅读 · 0 评论 -
模型评估:训练、验证、测试
一、数据集的划分(一)学习目标在理想情况下,通过机器学习,我们希望可以获得一个拥有出色泛化能力的模型。即能够在前所未见的数据样本上举一反三,正确分析预测。(二)假设1、全部数据集作为训练集只要选取模型适当,在若干轮迭代轮次后一定能够得到在训练集上性能优越的模型。但其泛化能力不得而知。2、划分为训练集和测试集增加了测试集部分,在训练集上训练模型,在测试集上评估模型并作为泛化能力的指标。但总是基于同一个测试集进行参数调整,即使可以进一步得到在测试集上表现优秀的模型,但模型在测试集上过拟合不可避免(原创 2020-06-09 15:44:34 · 4236 阅读 · 0 评论 -
jupyter notebook使用技巧
1、代码自动补全(1)安装库python -m pip install jupyter_contrib_nbextensions(2)执行jupyter contrib nbextension install --user --skip-running-check(3)配置进入jupyter notebook;在Nbextensions中勾选Hinterland和Table of Contents(4)按Tab使用自动补全2、简单方法(函数)功能提示(1)编写函数,括号留白(2)原创 2020-05-27 16:55:03 · 250 阅读 · 0 评论 -
Ubuntu18.04+tensorflow2.1.0+pytorch1.5环境搭建
一、安装ubuntu18.04 LTS(一)下载ubuntu系统映像Ubuntu 18.04.4 LTS (Bionic Beaver)(二)制作系统安装盘推荐工具:rufus(三)系统安装注意:一定将bios设置中安全启动选项关闭!(四)后续1、ubuntu更换阿里云镜像源2、二、深度学习环境搭建(一)GPU环境搭建参考Tensorflow官方GPU配置指南进行搭建。1、卸载旧显卡驱动及相关组件# 终端输入:sudo apt-get purge nvidia*sudo ap原创 2020-06-08 12:28:33 · 1380 阅读 · 0 评论 -
爬取百度图片450张猫图片
import requestsimport jsonbase_url = "http://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&is=&fp=" \ "result&queryWord=%E7%8C%AB&cl=2&lm...原创 2020-04-13 21:32:20 · 739 阅读 · 0 评论 -
爬取百度云500张验证码图片
from selenium import webdriverfrom selenium.webdriver.common.by import Byimport timeimport requestsdef save(url, path): response = requests.get(url) with open(path, 'wb') as img: ...原创 2020-04-03 17:56:24 · 826 阅读 · 0 评论 -
CSS选择器
选择器例子例子描述CSS.class.intro选择 class=“intro” 的所有元素。1#id#firstname选择 id=“firstname” 的所有元素。1**选择所有元素。elementp选择所有 < p > 元素。1element,elementdiv,p选择所有 < div &g...原创 2020-04-03 17:05:38 · 204 阅读 · 0 评论 -
Python爬虫常用库(三)pyquery
一、初始化(一)html代码初始化from pyquery import PyQuery as pqhtml = '''<div> <ul> <li class="item-0">first item</li> <li class="item-1"><a href="link2....原创 2020-04-01 15:55:56 · 233 阅读 · 0 评论 -
Python爬虫常用库(三)beautifulsoup
一、解析库解析器使用方法优势劣势lxml HTML解析库Beautifulsoup(markup, “lxml”)速度快、文档容错能力强需要安装C语言库lxml XML解析库Beautifulsoup(markup, “xml”)速度快、唯一支持XML的解析器需要安装C语言库html5libBeautifulsoup(markup, “html5...原创 2020-03-28 12:56:46 · 362 阅读 · 0 评论 -
Python爬虫常用库(二)正则表达式
一、测试站点:正则表达式在线工具二、语法模式描述^匹配字符串的开头$匹配字符串的末尾。.匹配任意字符,除了换行符,当re.DOTALL标记被指定时,则可以匹配包括换行符的任意字符。[…]用来表示一组字符,单独列出:[amk] 匹配 ‘a’,‘m’或’k’[^…]不在[]中的字符:[^abc] 匹配除了a,b,c之外的字符。re*匹配...原创 2020-03-25 09:46:50 · 226 阅读 · 0 评论 -
Python网络爬虫实战练习:爬取豆瓣图书信息
一、注意事项1、文件名尽量使用英文,避免出现编码问题2、含中文的文件写入,注意标注编码,如:with open(r"C:\Users\10335\Desktop\response.txt", 'w', encoding = "utf-8") as f: f.write(html) f.close()3、若长时间得不到输出,考虑正则表达式的构造是否捕捉效率不高二、代码实现...原创 2020-03-24 14:46:05 · 963 阅读 · 0 评论 -
Python爬虫常用库(一)urllib、requests
一、urllib1、请求 urillib.reques.urlopen(url = url, data = post_data, [time_out]*)(1)get类请求from urllib import requestresponse = request.urlopen("http://www.baidu.com")print(response.read().decode("utf...原创 2020-03-20 15:43:58 · 397 阅读 · 0 评论