Pytorch
Serendipity0928
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Pytorch:Conv2d卷积前后尺寸
Pytorch卷积前后的尺寸大小1. Conv2d参数2. 尺寸变化3. 示例1. Conv2d参数2. 尺寸变化卷积前的尺寸为(N,C,W,H) ,卷积后尺寸为(N,F,W_n,H_n)W_n = (W-F+S+2P)/S 向下取整H_n = (H-F+S+2P)/S3. 示例# m = nn.Conv2d(16, 33, 3, stride=2)# non-square kernels and unequal stride and with paddingm = nn.Conv2d原创 2020-08-01 10:19:00 · 4014 阅读 · 0 评论 -
Python3.8安装Pytorch
Python3.8安装Pytorch的过程1. 错误来源2. 解决办法--安装torch/torchvision2.1 下载.whl文件2.2 安装2.3 检查1. 错误来源安装Pytorch应该使用官网提供的方式安装。但是由于实在运行速度太慢,我便使用清华源进行安装: pip3 install torch torchvision -i https://pypi.tuna.tsinghua.edu.cn/simple报错:No module named ‘tools.nnwrap’个人觉得是由原创 2020-07-18 01:00:12 · 13765 阅读 · 0 评论 -
PyTorch中的model.modules(), model.children(), model.named_children(), model.parameters(), model.nam...
Pytorch中的model.modules,model.named_modules,model.children,model.named_children,model.parameter,model.named_parameters.model.state_dict实例方法的区别和联系1. model.modules()2. model.named_modules()3. model.children()4. model.named_children()5. model.parameters()6. m原创 2020-06-27 08:41:45 · 11713 阅读 · 6 评论 -
Pytorch:模型的保存与加载
Pytorch模型保存与加载,并在加载的模型基础上继续训练1.基本语句1.1 保存参数1.2 加载参数2. 语句分析2.1 torch.save()和torch.load()2.2 model.state_dict()2.3 model.load_state_dict()3. state_dict()和model.parameters()Pytorch保存模型保存的是模型参数1.基本语句1.1 保存参数一般地,采用一条语句即可保存参数:torch.save(model.state_dict(),原创 2020-06-27 00:31:31 · 2037 阅读 · 1 评论 -
Pytorch:实现K折交叉验证
K折交叉验证1. k折交叉验证简述2. 代码实现思路2.1 准备数据2.2 定义网络模型和数据集类2.3 K-Flod训练(最重要)2.4 K折划分2.5 单折训练过程1. k折交叉验证简述k折交叉验证用于训练集和测试集的划分,主要是为了解决划分出训练集/测试集的不同会使得模型的准确率产生明显的变化的问题,也可以用于在训练数据的过程,常常会遇到数据量不够大的情况。2. 代码实现思路2.1 准备数据#构造的训练集#x = torch.rand(100,28,28) y = torch.randn原创 2020-06-26 22:36:45 · 12263 阅读 · 6 评论 -
Pytorch:分割数据集
from torch.utils.data import random_split, SubsetdataSet_length = len(data_set)train_size= int(0.8*dataSet_length)train_set = Subset(data_set, range(train_size))test_set = Subset(data_set, range(train_size, dataSet_length))原创 2020-06-26 20:45:13 · 2412 阅读 · 0 评论 -
Pytorch:学习率衰减及其用法
Pytorch的学习率衰减及其用法1. 为什么需要用到学习率衰减?2. Pytorch中学习率衰减的方法3. 使用库函数进行调整3.1 基本说明3.2 等间隔调整学习率 StepLR3.3 多间隔调整学习率 MultiStepLR3.4 指数衰减调整学习率 ExponentialLR3.5 余弦退火函数调整学习率 CosineAnnealingLR3.6 根据指标调整学习率 ReduceLROnPlateau3.7 自定义调整学习率 LambdaLR4. 手动调整学习率什么是param_groups?1.原创 2020-06-27 08:42:38 · 2373 阅读 · 1 评论 -
Pytorch:dtype不一致(expected dtype Double but got dtype Float)
RuntimeError: Expected object of scalar type Double but got scalar type Float for argument #3 ‘mat2’ in call to _th_addmm_out原创 2020-06-26 14:43:36 · 13560 阅读 · 0 评论 -
Pytorch: retain_graph=True错误信息
(Pytorch:RuntimeError: Trying to backward through the graph a second time, but the buffers have already been freed. Specify retain_graph=True when calling backward the first time)1. 具有多个loss值retain_graph设置True,一般多用于两次backward# 假如有两个Loss,先执行第一个的backward,原创 2020-06-25 13:00:13 · 2061 阅读 · 3 评论
分享