pytorch学习9之深度学习(层与块)

本文介绍了如何在PyTorch中创建一个简单的多层感知机(MLP),该网络包含两个全连接层,一个20维输入到256维隐藏层,然后是一个256到10维的输出层。通过前向传播函数应用ReLU激活,并通过反向传播计算梯度。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

自定义块 

  1. 将输入数据作为其前向传播函数的参数。
  2. 通过前向传播函数来生成输出。请注意,输出的形状可能与输入的形状不同。例如,我们上面模型中的第一个全连接的层接收一个20维的输入,但是返回一个维度为256的输出。
  3. 计算其输出关于输入的梯度,可通过其反向传播函数进行访问。通常这是自动发生的。
  4. 存储和访问前向传播计算所需的参数。
  5. 根据需要初始化模型参数。
     
import torch
from torch import nn
from torch.nn import functional as F

X = torch.rand(2, 20)


# 包含一个多层感知机.具有256个隐藏单元和一个10维输出层
class MLP(nn.Module):
    # nn.module中继承一些函数,最重要的两个函数init及forward
    # 定义模型中所有需要的层(模型参数声明).
    # 申明两个全连接层
    def __init__(self):
        # 调用父类(module),初始化。一些内部参数设置
        super().__init__()
        # 定义隐藏层,输入20,输出256
        self.hidden = nn.Linear(20, 256)
        # 输出层
        self.out = nn.Linear(256, 10)

    # 定义前向传播,即如何根据输入X返回所需的模型输出
    def forward(self, X):
        # 给定输入,做输出.
        # 使用的nn.functional中定义的RELU函数
        #
        return self.out(F.relu(self.hidden(X)))


# 使用模型
net = MLP()
print(net(X))

输出:

tensor([[-0.1409, -0.1516,  0.0982,  0.0272, -0.0247,  0.2336, -0.1758,  0.0137,
         -0.0634,  0.0327],
        [-0.0325, -0.0577,  0.0931,  0.0048, -0.0506,  0.3069, -0.1862, -0.0315,
         -0.1100,  0.0783]], grad_fn=<AddmmBackward0>)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值