PyTorch学习教程
文章平均质量分 92
PyTorch学习教程
Mr_One_Zhang
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
PyTorch 教程
PyTorch 是一个开源的机器学习库,主要用于进行计算机视觉(CV)、自然语言处理(NLP)、语音识别等领域的研究和开发。PyTorch由 Facebook 的人工智能研究团队开发,并在机器学习和深度学习社区中广泛使用。PyTorch 以其灵活性和易用性而闻名,特别适合于深度学习研究和开发。原创 2025-04-11 11:24:05 · 948 阅读 · 0 评论 -
PyTorch 简介
PyTorch 提供了torch.nn模块,允许用户通过继承nn.Module类来定义神经网络模型。使用forward函数指定前向传播,自动反向传播(通过autograd)和梯度计算也由 PyTorch 内部处理。提供了常用的层(如线性层、卷积层、池化层等)。支持定义复杂的神经网络架构(包括多输入、多输出的网络)。兼容与优化器(如)一起使用。原创 2025-04-11 11:24:34 · 736 阅读 · 0 评论 -
PyTorch 安装
PyTorch 是一个流行的深度学习框架,支持 CPU 和 GPU 计算。原创 2025-04-11 11:25:23 · 885 阅读 · 0 评论 -
PyTorch 基础
PyTorch 是一个开源的深度学习框架,以其灵活性和动态计算图而广受欢迎。PyTorch 主要有以下几个基础概念:张量(Tensor)、自动求导(Autograd)、神经网络模块(nn.Module)、优化器(optim)等。张量(Tensor)是 PyTorch 中的核心数据结构,用于存储和操作多维数组。张量可以视为一个多维数组,支持加速计算的操作。在 PyTorch 中,张量的概念类似于 NumPy 中的数组,但是 PyTorch 的张量可以运行在不同的设备上,比如 CPU 和 GPU,这使得它们非常原创 2025-04-11 11:28:35 · 1072 阅读 · 0 评论 -
PyTorch 张量(Tensor)
张量是一个多维数组,可以是标量、向量、矩阵或更高维度的数据结构。在 PyTorch 中,张量(Tensor)是数据的核心表示形式,类似于 NumPy 的多维数组,但具有更强大的功能,例如支持 GPU 加速和自动梯度计算。张量支持多种数据类型(整型、浮点型、布尔型等)。张量可以存储在 CPU 或 GPU 中,GPU 张量可显著加速计算。原创 2025-04-11 11:31:12 · 1199 阅读 · 0 评论 -
PyTorch 神经网络基础
神经网络是一种模仿人脑处理信息方式的计算模型,它由许多相互连接的节点(神经元)组成,这些节点按层次排列。神经网络的强大之处在于其能够自动从大量数据中学习复杂的模式和特征,无需人工设计特征提取器。随着深度学习的发展,神经网络已经成为解决许多复杂问题的关键技术。原创 2025-04-11 11:33:08 · 1042 阅读 · 0 评论 -
PyTorch 第一个神经网络
用 PyTorch 创建一个简单的前馈神经网络。前馈神经网络使用了一层隐藏层,通过简单的线性变换和激活函数捕获数据的非线性模式。# 定义二分类的损失函数和优化器criterion = nn.BCELoss() # 二元交叉熵损失optimizer = optim.SGD(model.parameters(), lr=0.1) # 使用随机梯度下降优化器。原创 2025-04-11 11:36:16 · 685 阅读 · 0 评论 -
PyTorch 数据处理与加载
torch.utils.data.Dataset 是一个抽象类,允许你从自己的数据源中创建数据集。:返回数据集中的样本数量。:通过索引返回一个样本。假设我们有一个简单的 CSV 文件或一些列表数据,我们可以通过继承 Dataset 类来创建自己的数据集。原创 2025-04-11 11:37:58 · 751 阅读 · 0 评论 -
PyTorch 线性回归
我们可以通过继承nn.Module来定义一个简单的线性回归模型。在 PyTorch 中,线性回归的核心是层,它会自动处理权重和偏置的初始化。线性回归的常见损失函数是均方误差损失(MSELoss),用于衡量预测值与真实值之间的差异。PyTorch 中提供了现成的 MSELoss 函数。我们将使用SGD(随机梯度下降)或Adam优化器来最小化损失函数。原创 2025-04-11 11:40:00 · 930 阅读 · 0 评论 -
PyTorch 卷积神经网络
使用 nn.Module 构建一个 CNN。使用交叉熵损失和随机梯度下降优化器。criterion = nn.CrossEntropyLoss() # 多分类交叉熵损失optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9) # 学习率和动量。原创 2025-04-11 11:43:00 · 1219 阅读 · 0 评论 -
PyTorch 循环神经网络(RNN)
循环神经网络(Recurrent Neural Networks, RNN)是一类神经网络架构,专门用于处理序列数据,能够捕捉时间序列或有序数据的动态信息,能够处理序列数据,如文本、时间序列或音频。RNN 在自然语言处理(NLP)、语音识别、时间序列预测等任务中有着广泛的应用。RNN 的关键特性是其能够保持隐状态(hidden state),使得网络能够记住先前时间步的信息,这对于处理序列数据至关重要。原创 2025-04-11 11:45:08 · 1253 阅读 · 0 评论 -
PyTorch 数据集
以下是一个将 CSV 文件 作为数据源,并通过自定义 Dataset 和 DataLoader 读取数据。CSV 文件内容如下(下载。原创 2025-04-11 11:47:03 · 1065 阅读 · 0 评论 -
PyTorch 数据转换
如果 transforms 提供的功能无法满足需求,可以通过自定义类或函数实现。原创 2025-04-11 11:49:59 · 1033 阅读 · 0 评论 -
Pytorch torch 参考手册
PyTorch 软件包包含了用于多维张量的数据结构,并定义了在这些张量上执行的数学运算。此外,它还提供了许多实用工具,用于高效地序列化张量和任意类型的数据,以及其他有用的工具。它还有一个 CUDA 版本,可以让你在计算能力 >= 3.0 的 NVIDIA GPU 上运行张量计算。原创 2025-04-11 11:50:34 · 693 阅读 · 0 评论 -
PyTorch torch.nn 参考手册
PyTorch 的 模块是构建和训练神经网络的核心模块,它提供了丰富的类和函数来定义和操作神经网络。以下是 模块的一些关键组成部分及其功能:1、nn.Module 类:2、预定义层(Modules):3、容器类:4、损失函数(Loss Functions):5、实用函数接口(Functional Interface):6、初始化方法:原创 2025-04-11 11:51:50 · 966 阅读 · 0 评论 -
Transformer 模型
Transformer 模型是一种基于注意力机制的深度学习模型,最初由 Vaswani 等人在 2017 年的论文《Attention is All You Need》中提出。Transformer 彻底改变了自然语言处理(NLP)领域,并逐渐扩展到计算机视觉(CV)等领域。Transformer 的核心思想是完全摒弃传统的循环神经网络(RNN)结构,仅依赖注意力机制来处理序列数据,从而实现更高的并行性和更快的训练速度。以下是 Transformer 架构图,左边为编码器,右边为解码器。原创 2025-04-14 19:16:04 · 887 阅读 · 0 评论 -
PyTorch 构建 Transformer 模型
多头注意力通过多个"注意力头"计算序列中每对位置之间的关系,能够捕捉输入序列的不同特征和模式。MultiHeadAttention 类封装了 Transformer 模型中常用的多头注意力机制,负责将输入拆分成多个注意力头,对每个注意力头施加注意力,然后将结果组合起来,这样模型就可以在不同尺度上捕捉输入数据中的各种关系,提高模型的表达能力。原创 2025-04-14 19:15:52 · 1322 阅读 · 0 评论
分享