
Pytorch语法
文章平均质量分 83
肆十二
那些没有把我击倒的,只会让我更强大。
展开
-
经典的神经网络#1 Lenet
这篇论文名为《Gradient-Based Learning Applied to Document Recognition》,是Yann LeCun等人在1998年发表的,介绍了LeNet-5卷积神经网络,该网络主要用于手写数字识别。LeNet是由Yann LeCun等人在1998年提出的一种经典的卷积神经网络(Convolutional Neural Network, CNN)架构,最初被设计用于识别手写数字和打印字符等任务。原创 2024-03-11 14:01:13 · 958 阅读 · 1 评论 -
谈谈Pytorch中的dataset
最后,我们创建了一个数据集实例,并展示了如何使用它来获取数据集的大小和样本。是 PyTorch 中一个非常重要的抽象类,它用于表示数据集,方便数据加载和预处理。在实际使用中,你可能还需要根据具体任务添加其他的预处理步骤,比如裁剪、归一化等。模块中,包含了多个标准的数据集,这些数据集在计算机视觉领域非常流行。在类的构造函数中,我们接收样本数据和标签,并将它们存储在类的实例变量中。在上面的示例中,我们创建了一个名为。,你可以自定义自己的数据集类。原创 2024-03-10 13:54:21 · 1363 阅读 · 1 评论 -
Pyotrch-卷积神经网络基础组件之全连接层
卷积神经网络(CNN)中的全连接层通常出现在网络的最后几层,用于对前面层提取的特征进行加权和。在全连接层中,每个神经元都与其前一层的所有神经元进行全连接。全连接层的作用是将前面层提取的特征综合起来,形成一个一维的特征向量,以便于后续的分类或回归任务。在全连接层中,每个神经元的输出是前一层所有神经元输出的加权和,加上一个偏置项。权重和偏置项是全连接层的参数,需要通过训练得到。由于全连接层的每个神经元都与前一层的所有神经元相连,因此其参数数量通常较多,占整个网络参数的大部分。原创 2024-03-03 11:20:51 · 929 阅读 · 0 评论 -
Transformer结构介绍和Pyotrch代码实现
Transformer结构是近年来自然语言处理(NLP)领域的重要突破,它完全基于注意力机制(Attention Mechanism)来实现,克服了传统RNN模型无法并行计算以及容易丢失长距离依赖信息的问题。Transformer模型主要由Encoder和Decoder两部分组成。这两部分都包含多个相同的层,每层都由一个自注意力(Self-Attention)子层和一个前馈神经网络(Feed Forward Neural Network)子层组成。原创 2024-03-03 01:18:29 · 1208 阅读 · 0 评论 -
Pytorch-Adam算法解析
Hi,兄弟们,这里是肆十二,今天我们来讨论一下深度学习中的Adam优化算法。原创 2024-02-19 13:02:47 · 1472 阅读 · 2 评论 -
Pytorch的常用模块和用途说明
以上只是PyTorch中常用模块的一部分,实际上PyTorch还提供了许多其他有用的模块和工具,如torch.cuda(用于GPU加速)、torch.quantization(用于模型量化)等。具体使用哪些模块取决于你的应用需求和任务类型。PyTorch是一个开源的深度学习平台,提供了许多常用的模块来帮助开发者构建和训练神经网络。Hi,兄弟们,这里是肆十二,今天我们来讨论一下深Pytorch中的常用模块。原创 2024-02-19 13:01:45 · 685 阅读 · 1 评论 -
Pytorch-SGD算法解析
SGD,即随机梯度下降(Stochastic Gradient Descent),是机器学习中用于优化目标函数的迭代方法,特别是在处理大数据集和在线学习场景中。与传统的批量梯度下降(Batch Gradient Descent)不同,SGD在每一步中仅使用一个样本来计算梯度并更新模型参数,这使得它在处理大规模数据集时更加高效。原创 2024-02-18 12:39:51 · 3062 阅读 · 1 评论 -
Pytorch-RMSprop算法解析
Hi,兄弟们,这里是肆十二,今天我们来讨论一下深度学习中的RMSprop优化算法。RMSprop算法是一种用于深度学习模型优化的自适应学习率算法。它通过调整每个参数的学习率来优化模型的训练过程。下面是一个RMSprop算法的用例和参数解析。原创 2024-02-16 23:41:16 · 1590 阅读 · 0 评论