torch.nn.RNN基本用法

#torch.nn.RNN

CLASS torch.nn.RNN(*args, **kwargs)
**实现的功能:**实现一个用tanh或者ReLU作为非线性成分的Elman RNN(两种RNN中的一种)
对输入序列中的每个元素做下面的计算。
在这里插入图片描述
在这里插入图片描述
参数说明:

input_size: 输入x的feature个数,比如x是5*1维向量,那么input_size就是5

hidden_size: 隐层的feature个数,比如h是5*1维向量,那么hidden_size就是5

num_layers: 你想要使用的循环层的个数,你可以搭建多层循环的RNN。默认是1nonlinearity: 选择你想要使用的非线性成分,'tanh' or 'relu'bias: 是否使用bias,如果是False,那么就不适用上面图中的b。默认是True。

batch_first: 如果是True,那么输入和输出张量使用格式(batch, seq, feature)而不是(seq, batch, feature)

dropout:0值则表示,除了最后一层外,给每一层都添加一个Dropout层,默认是0bidirectional: 如果为Ture,则表示建立的是双向RNN。默认是False。

输入:input, h_0

input: 不使用batch,则输入的tensor是(seq_len, input_size)
	   使用batch,则输入的tensor是(seq_len, batch_size, input_size)
	   这里的input_size就是上面参数说明时候的x的feature。
	   为了记忆方便,我们选取首字母,简记为:
	   不使用batch就是SI, 使用batch就是SBI(傻逼哎)。
h_0:   不使用batch,则初始隐层h_0就是(D * num_layers, hidden_size)
	   使用batch,则初始隐层h_0就是(D * num_layers, batch_size, hidden_size)
	   这里的D取值和是否构建的是双向RNN有关,双向RNND2,否则D1
	   同样为了记忆方便,我们选取首字母,简记为:
	   不使用batch就是NH,使用batch就是NBH(牛逼吼)。
	   
	   注意:一般我们都会用batch的方法

输出:output, h_n

output: 不使用batch,则输出就是(seq_len, D * hidden_size)
		使用batch,则输出就是(seq_len, batch_size, D * hidden_size)!这里不用batchfirst
		同样为了记忆方便,我们选取首字母,简记为:
		不使用batch就是SH,使用batch就是SBH(傻逼吼)。
h_n:  	不使用batch,则输出就是(D* num_layers, hidden_size)
		使用batch,则输出就是(D * num_layers, batch_size, hidden_size)

其余不常使用的细节请参考文档:torch.nn.RNN

torch.nn.RNNPyTorch中用于构建循环神经网络RNN)的模块。RNN是一种用于处理序列数据的神经网络,它能够捕捉序列中的时序信息。torch.nn.RNN模块提供了创建和训练RNN的接口,使得构建和训练RNN变得简便。 以下是torch.nn.RNN的一些主要参数和用法: 1. **input_size**: 输入数据的特征维度。 2. **hidden_size**: 隐藏状态的特征维度。 3. **num_layers**: RNN层的数量。 4. **nonlinearity**: 非线性激活函数,默认为'tanh'。也可以设置为'relu'。 5. **bias**: 是否使用偏置项,默认为True。 6. **batch_first**: 如果为True,则输入和输出的张量形状为(batch, seq, feature),否则为(seq, batch, feature),默认为False。 7. **dropout**: 如果非零,则在除最后一层外的每个RNN层的输出上引入一个dropout层,默认为0。 8. **bidirectional**: 如果为True,则成为一个双向RNN,默认为False。 以下是一个简单的示例代码,展示了如何使用torch.nn.RNN: ```python import torch import torch.nn as nn # 定义RNN模型 class RNNModel(nn.Module): def __init__(self, input_size, hidden_size, num_layers): super(RNNModel, self).__init__() self.rnn = nn.RNN(input_size, hidden_size, num_layers, batch_first=True) def forward(self, x): out, hidden = self.rnn(x) return out, hidden # 初始化模型 input_size = 10 hidden_size = 20 num_layers = 2 model = RNNModel(input_size, hidden_size, num_layers) # 创建一个随机输入张量 batch_size = 5 seq_length = 3 x = torch.randn(batch_size, seq_length, input_size) # 前向传播 out, hidden = model(x) print("输出张量的形状:", out.shape) print("隐藏状态的形状:", hidden.shape) ``` 在这个示例中,我们定义了一个简单的RNN模型,并创建了一个随机输入张量进行前向传播。输出张量和隐藏状态的形状会显示在控制台中。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

cs从入门到放弃

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值