
pytorch学习
文章平均质量分 91
pytorch学习经历
sunshinecxm_BJTU
这个作者很懒,什么都没留下…
展开
-
Pytorch模型保存与加载(示例)
链接0.为什么要保存和加载模型用数据对模型进行训练后得到了比较理想的模型,但在实际应用的时候不可能每次都先进行训练然后再使用,所以就得先将之前训练好的模型保存下来,然后在需要用到的时候加载一下直接使用。模型的本质是一堆用某种结构存储起来的参数,所以在保存的时候有两种方式,一种方式是直接将整个模型保存下来,之后直接加载整个模型,但这样会比较耗内存;另一种是只保存模型的参数,之后用到的时候再创建一个同样结构的新模型,然后把所保存的参数导入新模型。1.两种情况的实现方法(1)只保存模型参数字典(推荐)#转载 2022-04-21 15:48:55 · 1210 阅读 · 0 评论 -
(一)2 图片处理与数据加载_DataLoader 与 DataSet
参考*本章代码:https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson2/rmb_classification/*人民币 二分类实现 1 元人民币和 100 元人民币的图片二分类。前面讲过 PyTorch 的五大模块:数据、模型、损失函数、优化器和迭代训练。数据模块又可以细分为 4 个部分:数据收集:样本和标签。数据划分:训练集、验证集和测试集数据读取:对应于PyTorch 的 DataLoader。其中 Da转载 2021-08-10 20:57:47 · 992 阅读 · 0 评论 -
(一)PyTorch 中的基本概念_autograd 与逻辑回归
参考本章代码:https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson1/autograd.pyhttps://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson1/logistic-regression.py自动求导 (autograd)在深度学习中,权值的更新是依赖于梯度的计算,因此梯度的计算是至关重要的。在 PyTorch 中,只需要搭建好前向计算图,然后转载 2021-08-09 16:12:11 · 171 阅读 · 0 评论 -
(一)PyTorch 中的基本概念_张量操作与线性回归
参考**本章代码:**https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson1/linear_regression.py1.3 张量操作与线性回归张量的操作拼接torch.cat()torch.cat(tensors, dim=0, out=None)功能:将张量按照 dim 维度进行拼接tensors: 张量序列dim: 要拼接的维度代码示例:t = torch.ones((2, 3))t_0 = t转载 2021-08-09 11:31:21 · 215 阅读 · 0 评论 -
(一)PyTorch 中的基本概念_Tensor 与 Variable
参考1.1 PyTorch 简介与安装PyTorch 实现模型训练的 5 大要素:数据:包括数据读取,数据清洗,进行数据划分和数据预处理,比如读取图片如何预处理及数据增强。模型:包括构建模型模块,组织复杂网络,初始化网络参数,定义网络层。损失函数:包括创建损失函数,设置损失函数超参数,根据不同任务选择合适的损失函数。优化器:包括根据梯度使用某种优化器更新参数,管理模型参数,管理多个参数组实现不同学习率,调整学习率。 迭代训练:组织上面 4个模块进行反复训练。包括观察训练效果,绘制 Loss/转载 2021-08-09 10:41:08 · 345 阅读 · 0 评论 -
神经网络_训练loss不下降原因集合
一,train loss与test loss结果分析train loss 不断下降,test loss不断下降,说明网络仍在学习;train loss 不断下降,test loss趋于不变,说明网络过拟合;train loss 趋于不变,test loss不断下降,说明数据集100%有问题;train loss 趋于不变,test loss趋于不变,说明学习遇到瓶颈,需要减小学习率或批量数目;train loss 不断上升,test loss不断上升,说明网络结构设计不当,训练超参数设置不当,数转载 2021-08-09 09:46:20 · 14336 阅读 · 0 评论