
深度学习
文章平均质量分 70
深度学习个人心得
流年若逝
这个作者很懒,什么都没留下…
展开
-
RuntimeError: element 0 of tensors does not require grad and does not have a grad_
https://www.cnblogs.com/sddai/p/14899411.html使用 model.eval() 出现RuntimeError: element 0 of tensors does not require grad and does not have a grad_原创 2022-02-27 13:28:46 · 16459 阅读 · 4 评论 -
解决vscode:could not establish connection to alias
目录1. 问题引入2. 解决方案1. 问题引入我相信大家在使用vscode连接服务器的时候大多数人出现过如下所示的错误:2. 解决方案相信大家网上查找解决方案的时候,大多数人都会看到下面的这个文件删掉然后就可以了。C:\Users\wyf\.ssh嗯嗯,可能对于少数人有用,但是对于大多数人是无效的。然后网上又各种查找解决办法,但是毫无用处,直到问了下身边的人才知道解决方案了。问题是这样的:如果你在自己的电脑上装了Git那么你Git自带的SSH 和你windows 里面自带的Open原创 2021-06-25 22:11:24 · 9382 阅读 · 11 评论 -
将MNIST数据集的每个类对应的的图像输出
文章目录1. 方法一1.1 运行结果2. 方法二2.1 效果如下2.2 小提示3. 方法三3.1 效果展示4. 参考文献1. 方法一这种方法直接将MNIST数据集里面的所有图像输出,换句话说就是没有分门别类的输出,代码如下:import torchimport torchvision import torch.utils.data as Data import scipy.miscimport osimport matplotlib.pyplot as plt from torch原创 2021-05-02 17:59:20 · 1477 阅读 · 1 评论 -
RuntimeError: Expected 4-dimensional input for 4-dimensional weight [32, 1, 5, 5]
错误原因1. 问题引入2. 运行报错3. 代码4. 分析原因5.解决办法6. 完整代码7. 参考文献1. 问题引入今天在使用pytorch训练一个模型的,数据集的读取是使用pytorch自带的函数来进行读取和预处理的,网络使用的是自定义的CNN,然后在运行的时候出现了如标题所示的这种小错误。2. 运行报错如下所示:RuntimeError: Expected 4-dimensional input for 4-dimensional weight [32, 1, 5, 5], but got 2-原创 2021-04-28 15:32:43 · 23898 阅读 · 28 评论 -
Pytorch设计卷积神经网络(理论+推导)
文章目录1. 案例分析2. 转化为pytorch实现网络结构2.1 推导理论2.2 池化和卷积计算公式2.3 公式推导2.3.1 计算第一层2.3.2 计算第二层2.3.3 计算第三层2.3.4 计算第四层3. 参考链接1. 案例分析在深度学习的过程中我们常常需要去搭建一个网络结构,比如:NN、CNN等,最近在学习的过程中碰到了一个难题,就是别人使用Tensorflow搭建的一个CNN网络,我需要使用Pytorch去搭建这个CNN网络,由于这两种框架一些语法不同导致我不能直接信手拈来,所以必须要手动搭建原创 2021-04-08 16:16:39 · 705 阅读 · 0 评论 -
vscode安装以及如何连接服务器
1.安装vscode1.1首先我们需要到官网下载最新版本的vscode(下载地址)1.2然后根据自己的电脑系统选择合适的版本,我选择下载的是下面图中红色框的这个,因为这个下载之后解压就行,其他2个相对麻烦一点。1.3注意:解压到非系统盘(节约系统盘空间,也方便后面使用),文件夹最好不要出现中文和空格,如:解压到D:\VSCode-win32-x64-1.31.12.使用vscode2.1打开我们解压vscode的文件目录,点击vscode.exe2.2 更换语言(如果你不是很原创 2021-03-02 10:45:39 · 5988 阅读 · 0 评论 -
深度学习中epoch、batch_size、iterations之间的关系
之前在学习深度学习的过程中一直对epoch、batch_size、iterations这三者之间的关系搞不懂,现在跑过一些实验之后对这三者之间的关系有了个更深层次的理解。epoch:是指将所有训练样本训练一遍的次数(它的取值取决于你自己)batch_size:是指每一次迭代过程中训练样本的的大小iterations:是指在每一个epoch下需要迭代的次数对于batch_size以及iterations可能说的抽象点,我们举个例子来更形象解释下。比如我们有一个数据集CIFAR 10 他是有原创 2021-01-15 17:23:22 · 1049 阅读 · 0 评论 -
误差反向传播(手把手教你推导如何通过反向传播更新参数)
【一些基础概念】误差反向传播(Error Back Propagation, BP)算法1、BP算法的基本思想是:学习过程由信号的正向传播与误差的反向传播两个过程组成。1)正向传播:输入样本->输入层->隐藏层(处理)->输出层举一个正向传播的例子,如下所示:我们通过单个的神经元来观察下输入数据从输入到输出需要经历哪些步骤:第一步:每个输入都跟一个权重相乘(红色)第二步:加权后的输入求和,加上一个偏差b(绿色)第三步:这个结果传递给一个激活函数f(x.原创 2020-10-29 18:52:51 · 11124 阅读 · 8 评论 -
机器学习中的正则化
在机器学习的过程中我们会经常看到“正则化”这个词,比如我们看一些书籍、一些视频或者老师们讲课说的:给损失函数加一个正则化项,相当于给它一个惩罚...”等等,就给人一种很迷的感觉。对此,在网上看到过一些关于什么是正则化的文章,经过整理加上自己的理解就在这里记录下来。打个比方:假设我们的模型就是一只蚊子,我们要训练它去模拟空中的一些点的整体路径:我们空中的点也分为训练集和测试集,蚊子去学习训练集的路径,然后闭上眼睛,按照自己学习到的那个路径去预测测试集的点是否在路径上。首先,蚊子自以为...原创 2020-10-17 15:29:15 · 1201 阅读 · 2 评论