
torch笔记
文章平均质量分 56
见见大魔王
我很懒
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【Torch笔记】DataLoader与Dataset
是 Dataset 抽象类,所有自定义的 Dataset 都要继承它,并完成复写。:批大小,决定一个 Epoch 有多少个 Iteration。A1:Sampler会返回index,确定读取哪些数据。:一批样本输入到模型中,称之为一个 Iteration。:所有训练样本都已输入到模型中,称为一个 Epoch。A3:使用Dataset中的getitem。A2:在Dataset中进行设置。接收一个索引,放回一个样本。原创 2022-10-28 21:21:10 · 1223 阅读 · 0 评论 -
【Torch笔记】autograd自动求导系统
pytorch中的自动求导原创 2022-10-24 22:08:13 · 292 阅读 · 0 评论 -
【Torch笔记】autograd自动求导系统
pytorch中的自动求导原创 2022-10-24 22:07:40 · 430 阅读 · 0 评论 -
【Torch笔记】计算图与动态图
Pytorch是动态图机制原创 2022-10-24 21:38:36 · 1441 阅读 · 0 评论 -
【Torch笔记】Tensor 简介与创建方法
简介pytorch中的张量和基础用法原创 2022-10-24 21:03:13 · 1886 阅读 · 0 评论 -
【Torch笔记】torch.repeat()解析
【Torch笔记】torch.repeat()解析官网说明:torch.repeat()当参数有三个时:(通道数的重复倍数,列的重复倍数,行的重复倍数)例子:原创 2022-04-05 18:46:21 · 2217 阅读 · 1 评论 -
【Torch笔记】torch.nn.LSTM 使用方法
【Torch笔记】torch.nn.LSTM 使用方法1 基本原理LSTM,长短期记忆 RNN,是 RNN 的变体,优点在于能学习长期依赖的信息,相当于有记忆功能。LSTM 的关键就是 细胞状态(cell state),水平线在图上方贯穿运行。细胞状态类似于传送带,直接在整个链上运行,只有一些少量的线性交互。信息在上面流传比较容易保持不变。LSTM 有通过精心设计的称作为“门“的结构来 去除或者增加信息到细胞状态的能力。门是一种让信息选择式通过的方法。他们包含一个 sigmoid 神经网络层和一原创 2022-04-05 12:54:16 · 3842 阅读 · 1 评论 -
【Torch笔记】Torch.stack() 使用方法
官方解释:沿着一个新维度对输入张量序列进行连接。 序列中所有的张量都应该为相同形状。- dim 是选择生成的维度(从0开始计数),也就是你想把这个堆叠体现在哪个维度上。其实就是一个堆叠过程,直接看代码比较好。下图是 dim = 0 的情况,也就是按行堆叠,输出的结果就是一个 2 * 3 的 tensor。那再看看 dim = 1 的情况。那就是按列堆叠,输出的是一个 3 * 2 的 tensor。那以上就是比较简单的情况,在复杂点呢?也是一样的,aa 和 bb..原创 2022-03-15 12:14:48 · 1344 阅读 · 0 评论