pytorch
lix_gogogo
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
长短期记忆网络LSTM理解和示例
门在LSTM中用的是sigmoid函数(输出为0,1)而待选数据ct'为tanh函数。ft表示遗忘门(forget),it表示输入门(input), ot为输出门(output), ct'为输入单元的候选状态。由图可知,ct-1记录着历史信息(t时刻之前的信息),ft与ct-1向量相乘可以选择接收和遗忘ct-1中存储的历史数据。LSTM是一种特殊的RNN(循环神经网络),是RNN的变体,可以做到记住重要信息而忘记无关紧要信息的特点。it这个门与候选数据ct'相互作用,筛选ct'中的数据,为输入门。原创 2023-05-18 14:04:38 · 614 阅读 · 0 评论 -
Pytorch实现简单循环神经网络和detach相关讨论
基于pytorch平台建立了RNN网络简单例子,主要讨论了参数形状,计算图和反向传播时应注意的问题,主要为技术上的,并未就RNN的原理展开过多探讨。原创 2023-05-17 16:08:59 · 472 阅读 · 1 评论 -
Tensorboard的使用
SummaryWriter用法原创 2023-05-15 20:16:04 · 1276 阅读 · 1 评论 -
torch.gather的用法
以举例的形式介绍了torch.gather的用法原创 2023-03-03 15:34:19 · 611 阅读 · 0 评论 -
Pytorch实现MINIST数据集
采用Pytorch编写对Minist训练的深度网络原创 2023-05-15 19:53:21 · 914 阅读 · 0 评论 -
pytorch卷积网络示例和参数设置介绍
以pytoroch的一个简单网络为例,介绍Pytorch定义深度学习网络的方法,并详细介绍了各网络参数的设置和计算方法。原创 2023-05-14 22:41:03 · 596 阅读 · 0 评论 -
训练好模型的调用和使用
针对之前根据CIFAR10训练好的模型用其对输入图片进行测试,简单介绍使用流程。原创 2023-02-18 18:27:55 · 2611 阅读 · 0 评论 -
完整的网络训练,测试和保存
通过一个简单的例子介绍网络的搭建,训练,测试和保存。原创 2023-02-18 17:16:42 · 399 阅读 · 0 评论 -
保存和加载训练模型--torch.save()和torch.load()
介绍两种加载和调用模型的方法.原创 2023-02-17 20:30:27 · 1262 阅读 · 0 评论 -
已有模型的调用和修改--torchvision.models
以vgg16网络为例,介绍导入已有训练好(直接用来预测)和未训练好的网络(用其框架);还介绍了对已导入网格的修改和添加操作,从而做出适用于自己问题的网络。原创 2023-02-17 18:54:28 · 721 阅读 · 0 评论 -
优化器的学习--torch.optim
用pytorch框架定义了一个简单卷积神经网络,并采用随机梯度下降法进行了20轮的迭代学习,期间统计了所有样本在每一轮的误差。原创 2023-02-17 17:49:03 · 482 阅读 · 0 评论 -
损失函数和反向传播
先介绍了3种常见损失函数,需要重点注意交叉熵损失函数的输入格式。后面通过定义一个简单卷积网络和利用交叉熵进行反向传播原创 2023-02-17 16:59:25 · 342 阅读 · 0 评论 -
pytorch中用nn.sequential搭建简单网络
pytorch中用nn.sequential搭建简单网络原创 2023-02-17 15:21:07 · 569 阅读 · 0 评论 -
Affine层之nn.Linear()的使用
Affine层也叫线性层,在神经网络全连接用的比较多,即Y = WX+b, 其中W为权重向量,b为偏置。在pytorch中Affine层为采用nn.Linear()类实现原创 2023-02-17 12:39:18 · 611 阅读 · 0 评论 -
非线性激活函数之nn.ReLU和nn.Sigmoid
以非线性激活函数nn.ReLU和nn.Sigmoid介绍非线性激活函数的用法参数inplace表示是否改变原来的值,例如nn.ReLu(input, inplace= Ture) 表示input的值会改变而nn.ReLu(input, inplace= False) 表示input的值不会改变,可以让output值接收,例如:output = n.ReLu(input, inplace= False) 此时input为原值,而output接收处理后的值建议设置inplace = False, 以免丢原创 2023-02-17 11:42:49 · 1327 阅读 · 0 评论 -
池化层操作之nn.MaxPool2d的使用
池化层的作用是为了缩减参数。nn.MaxPool2d的使用比较简单,其中参数ceil_model为False表示当输入的一部分小于池化核时则舍弃。原创 2023-02-17 10:55:38 · 627 阅读 · 0 评论 -
pytorch之nn.Conv2d用法
nn.functional.Conv2d提供了卷积的计算函数,需要自己定义卷积核,输入图像的相关信息(值),从而帮助计算卷积。而nn.Conv2d类仅需要提供输入层,卷积核的尺寸信息即可计算,自动初始化权重等信息。原创 2023-02-16 20:38:13 · 859 阅读 · 0 评论 -
卷积层操作之Conv2d的使用
Conv2d是位于torch.nn.functional中的方法,用于计算2维图像。原创 2023-02-16 15:27:36 · 728 阅读 · 0 评论 -
利用torch.nn.module建立简单神经网络框架
利用torch.nn.module建立简单神经网络框架原创 2023-02-16 14:39:56 · 216 阅读 · 0 评论 -
DataLoader的用法
DataLoader可以将datasets中的数据打包抽取,生成batch_size便于深度学习训练。原创 2023-02-16 12:53:21 · 749 阅读 · 0 评论 -
torchvision之Dataset用法
pytorch本身自带的Dataset类提供了一些列数据集,比如常用的EMNIST,CORFAR10诸如此类。这里简要介绍如何用Dataset导入这些数据集,以及将这些数据集和transforms配合使用。原创 2023-02-16 10:50:23 · 398 阅读 · 0 评论 -
pytorch中的图像处理工具-transforms
介绍torchvision中transforms的用法,主要用于对图像进行处理。原创 2023-02-15 12:45:54 · 876 阅读 · 0 评论 -
Tensorboard学习-add_scaler()和add_image()
pytorch学习之tensorboard的学习原创 2023-02-14 14:05:18 · 404 阅读 · 0 评论
分享