
pytorch
每天都是被迫学习
不爱学习
反内卷
爱玩
更多复试内容关注“读研随记”
展开
-
pytorch加载模型出现错误
(大家看了后面可能会理解我为啥这样说,因为我另起了一个文件但我没有注意到这个问题)关于上图标的红色的那个解决方案,完全不建议使用,很拉跨!这几行的代码就是在加载你的pth。我们可以看到在第21行的那个Network,这个Network指的是你pth1的Network,所以当你在加载你的pth2时,会出现参数不匹配的情况!我在把我修改的模型训练完了之后,用了原来的的模型进行加载。,那么当你用你的测试脚本去测试你训练的模型效果是否好时,只有pth1能正常加载进去,而pth2或许大概率是会出错的。原创 2024-05-09 20:42:49 · 896 阅读 · 0 评论 -
Anchors
所以经过卷积完之后,每一个红点就是32×32上的每一个特征像素点经过乘以16(feat_stride)后映射回原图的位置。2.为了让rpn训练的时候有目标参考,做目标检测需要考虑的问题,始终要有一个参考值,每一个anchor是属于前景还是背景。至于9是如何来的以及生成红点的细节...后续会更 吧?1.为了解决计算效率问题;原创 2023-09-28 00:12:48 · 192 阅读 · 0 评论 -
PyTorch深度学习(七)【循环神经网络-提高】
做完padding之后,就可以转换为张量了。原创 2023-09-22 01:52:45 · 240 阅读 · 0 评论 -
PyTorch深度学习(六)【循环神经网络-基础】
h0和x1生成h1,把h1作为输出送到下一次的RNN Cell里面。(h1=linear(h0,x1))每一层都有对应输出。同样颜色的RNN Cell都是一个线性层,也就是说一共只有3个线性层。输入先做线性变换,循环神经网络常用的激活函数是tanh(±1区间)。用RNN首先要把维度搞清楚,数据集的维度多了序列这样一个维度。原创 2023-09-21 16:03:07 · 325 阅读 · 0 评论 -
PyTorch深度学习(五)【卷积神经网络】
最大池化层(MaxPooling):通道数不变,图像大小缩成原来的一半,没有权重。下采样(Subsampling):通道数不变,减少数据量,降低运算需求。经过10轮的训练后,模型的准确度达到了98%,用线性模型是97%。【番外:1.理论学习 2.阅读文献 3.复现经典 4.扩充视野】1×1卷积:将来的卷积核是1×1,个数取决于输出张量的通道。Concatenate:把张量拼接到一块;Average Pooling:均值池化;1×1卷积作用:(主要就是降维):保持输入和输出大小相同。原创 2023-09-20 22:54:03 · 600 阅读 · 0 评论 -
PyTorch深度学习(四)【加载数据集、多分类问题】
首先,它是用的手写数字识别的数据集,名字叫做mnist,将这个单词复制一下去你的电脑里面搜索,如下操作:(一般有过一点子小基础的安装过python相关的软件或者做过一些小项目都存在此文件,不存在就去网上下载,很多!当你拿到一个数据集,这个数据集呢需要支持索引,将来DataLoder能够访问到所有的元素,DataLoder还需要知道长度,这样DataLoder就能够对 dataset进行自动的小批量的数据集生成。代码:(对于代码中的数据集教大家一个方法如何获取,在文章靠后的位置)第一个:Epoch.原创 2023-09-18 17:48:55 · 391 阅读 · 0 评论 -
PyTorch深度学习(三)【Logistic Regression、处理多维特征的输入】
这个名字叫做回归,做的是分类。使用的损失函数:二分类交叉熵。(这个也叫做BCELoss)损失和优化:(BCE)原创 2023-09-17 01:36:00 · 382 阅读 · 0 评论 -
PyTorch深度学习(二)【反向传播、用pytorch实现线性回归】
同时,也要注意到这是有风险的。增加训练的轮数,对于训练的损失不断减少,测试集上的损失可能会少着少着就又回升了,说明过拟合了。所有的数值都保存在tensor里面,data和grad分别用来保存权重本身的值和损失函数对权重的导数。pytorch里面的数据存储:tensor,它可以存标量、向量、矩阵、高维度数据等。在真正的训练过程中,不仅要关注训练集上的损失,也要关注测试集上的损失。四大步骤:准备数据集,设计模型,计算损失和定义优化器,训练周期。加入激活函数:(不加激活函数的神经网络就是一个线性回归模型)原创 2023-09-16 10:23:45 · 335 阅读 · 0 评论 -
PyTorch深度学习(一)【线性模型、梯度下降、随机梯度下降】
在大多数的情况下,得到的loss图像形状趋势都是如上图所示,如果出现右边有又上去了的情况,则说明训练发散了,这次训练失败了。因此可以若干个分为一组,每次用这一租样本去求相应的梯度,然后进行更新。训练失败的情况有很多,其中最常见的是:学习率取得太大。(只用一个样本,即使陷入了鞍点,也也有可能跨过这个鞍点向前推进找最优点)【番外:Batch。cost公式:(cost function是对所有的样本)公式:(单个样本的损失函数对权重求导,然后进行更新)【番外:可视化常用到的工具---visdom】原创 2023-09-15 19:43:16 · 184 阅读 · 0 评论