
深度学习PyTorch入门
文章平均质量分 83
深度学习PyTorch入门
冰雪storm
深度学习新手
展开
-
【PyTorch入门】0.快速开始
Learn the Basics — PyTorch Tutorials 2.2.0+cu121 documentationLink: Learn the Basics — PyTorch Tutorials 2.2.0+cu121 documentationLearn the Basics — PyTorch Tutorials 2.2.0+cu121 documentationLink: Learn the Basics — PyTorch Tutorials 2.2.0+cu121 documen原创 2023-12-26 22:57:08 · 1146 阅读 · 2 评论 -
【深度学习PyTorch入门】7.Save and Load the Model 保存和加载模型
在本节中,我们将了解如何通过保存、加载和运行模型预测来持久保存模型状态。原创 2024-01-09 16:24:08 · 621 阅读 · 0 评论 -
【深度学习PyTorch入门】6.Optimizing Model Parameters 优化模型参数
现在我们有了模型和数据,是时候通过优化数据上的参数来训练、验证和测试我们的模型了。在每次迭代中,模型都会对输出进行猜测,计算其猜测中的误差(衡量的是得到的结果与目标值的不相似程度,它是我们在训练时想要最小化的损失函数。为了计算损失,我们使用给定数据样本的输入进行预测,并将其与真实数据标签值进行比较。一旦我们设置了超参数,我们就可以使用优化循环来训练和优化我们的模型。向前跳转查看优化循环的。当提供一些训练数据时,我们未经训练的网络可能不会给出正确的答案。优化是调整模型参数以减少每个训练步骤中模型误差的过程。原创 2024-01-07 16:02:53 · 1592 阅读 · 0 评论 -
【PyTorch入门系列】5.Autograd 自动微分
对象组成的有向无环图 (DAG) 中,autograd 保存数据(张量)和所有执行的操作(以及生成的新张量)的记录。在这个 DAG 中,叶子是输入张量,根是输出张量。例如,当我们训练完模型,并且只想将其应用于某些输入数据时,即我们只想通过网络进行*前向计算。在许多情况下,我们有一个标量损失函数,并且需要计算某些参数的梯度。,这是在标量值函数(例如,神经网络训练期间的损失)的情况下,计算梯度的有用方法。为了优化神经网络中参数的权重,我们需要计算损失函数关于参数的导数。时,梯度的值是不同的。原创 2024-01-06 23:03:36 · 811 阅读 · 1 评论 -
【PyTorh入门】4.构建模型
神经网络由对数据执行操作的层/模块组成。命名空间提供了构建您自己的神经网络所需的所有构建块。在PyTorch 中,每个模块都是子类。神经网络本身就是一个模块,由其他模块(层)组成。这种嵌套结构允许轻松构建和管理复杂的架构。在以下部分中,我们将构建一个神经网络,来对 FashionMNIST 数据集中的图像进行分类。原创 2024-01-04 17:04:47 · 968 阅读 · 1 评论 -
【PyTorch入门】3.Transforms
数据并不总是以训练机器学习算法所需的最终处理形式出现。我们使用来对数据执行一些操作并使其适合训练。所有 TorchVision datasets都有两个参数:transform用来修改features和用来修改labels。这两个参数接受包含转换逻辑的可调用对象。模块提供了几种开箱即用的常用转换。FashionMNIST features采用PIL图像格式,labels为整数。对于训练,我们需要将特征作为归一化张量,将标签作为单热编码张量。为了进行这些转换,我们使用ToTensor和Lambda。原创 2024-01-04 12:02:56 · 380 阅读 · 1 评论 -
【PyTorch入门】2.数据集和数据加载器
_init____len__和__getitem__。看看这个实现:FashionMNIST 图像存储在目录img_dir中,它们的标签单独存储在CSV 文件中。在接下来的部分中,我们将详细介绍每个函数中实现的功能。import os。原创 2024-01-02 23:00:55 · 866 阅读 · 1 评论 -
【PyTorch入门】1.张量
张量 — PyTorch 教程 2.2.0+cu121 文档。原创 2023-12-31 15:50:30 · 862 阅读 · 0 评论