PyTorch的Modules的使用

本文详细介绍了如何使用PyTorch查看神经网络模型的参数,包括权重和偏置,并展示了如何通过不同方法遍历网络结构。此外,还提供了具体的代码示例来展示这些操作的实际应用。
部署运行你感兴趣的模型镜像

传送门

模型的参数!

model.parameters() / model.named_parameters()

for parameter in m.named_parameters():
  print(parameter)
: ('weight', Parameter containing:
tensor([[ 1.0597,  1.1796,  0.8247],
        [-0.5080, -1.2635, -1.1045],
        [ 0.0593,  0.2469, -1.4299],
        [-0.4926, -0.5457,  0.4793]], requires_grad=True))
('bias', Parameter containing:
tensor([ 0.3634,  0.2015, -0.8525], requires_grad=True))

Building Blocks

net = nn.Sequential(
  MyLinear(4, 3),
  nn.ReLU(),
  MyLinear(3, 1)
)

sample_input = torch.randn(4)
net(sample_input)
: tensor([-0.6749], grad_fn=<AddBackward0>)

children() or named_children()

中间层(直接层)

net = Net()
for child in net.named_children():
  print(child)
: ('l0', MyLinear())
('l1', MyLinear())

modules() and named_modules()

递归地表示出所有的中间层(以及中间层的子层)

class BigNet(nn.Module):
  def __init__(self):
    super().__init__()
    self.l1 = MyLinear(5, 4)
    self.net = Net()
  def forward(self, x):
    return self.net(self.l1(x))

big_net = BigNet()
for module in big_net.named_modules():
  print(module)


: ('', BigNet(
  (l1): MyLinear()
  (net): Net(
    (l0): MyLinear()
    (l1): MyLinear()
  )
))
('l1', MyLinear())
('net', Net(
  (l0): MyLinear()
  (l1): MyLinear()
))
('net.l0', MyLinear())
('net.l1', MyLinear())

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

### PyTorch `modules.py` 文件内容和作用 #### 定义模块结构 在 PyTorch 中,`module.py` 是核心组件之一,位于 `torch/nn/modules/module.py`。此文件定义了所有神经网络层和其他可训练模块的基础类 `Module`[^5]。 ```python class Module(object): training: bool = True # 默认情况下处于训练模式 def __init__(self) -> None: """ 初始化一个新的 Module 实例。 子类应调用 super().__init__() 来确保正确初始化父类属性。 """ pass def forward(self, *input): """前向传播逻辑""" raise NotImplementedError("子类必须实现该方法") def eval(self): r"""将模型切换到评估模式.""" self.train(False) def train(self, mode=True): r"""设置当前 module 及其所有的子 module 到指定的训练状态. 参数: mode (bool): 是否启用训练模式,默认为True表示开启训练模式;False则关闭并进入推理模式。 """ ... ``` #### 主要功能描述 - **基础抽象**: 提供了一个通用接口给继承自它的具体层(如卷积层、线性变换等),使得这些具体的层能够共享一些公共行为,比如参数管理、自动求导支持等功能。 - **生命周期控制**: 包含若干辅助函数来帮助开发者更好地管理和调整模型的状态,例如通过 `.train()` 和 `.eval()` 方法可以在不同场景下灵活转换模型的工作方式。 - **递归遍历机制**: 支持对整个计算图中的节点进行深度优先搜索式的访问,这对于保存加载模型权重以及打印架构非常有用。可以通过`.named_modules()` 或者直接迭代对象本身获取全部子模块的信息[^4]。 #### 使用示例 下面是一个简单的例子展示如何利用上述特性构建自己的定制化层: ```python import torch.nn as nn class CustomLayer(nn.Module): def __init__(self): super(CustomLayer, self).__init__() def forward(self, x): return x + 1 custom_layer = CustomLayer() print(custom_layer.training) # 输出: True custom_layer.eval() # 进入评估模式 print(custom_layer.training) # 输出: False for name, param in custom_layer.named_parameters(): print(name, param) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

万物琴弦光锥之外

给个0.1,恭喜老板发财

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值