时间序列数据预测,Transformer代码介绍(2)--模型框架

1、完整代码如下:

class TransformerModel(nn.Module):
    def __init__(self,input_dim,output_dim,num_heads,num_layers,hidden_dim,max_len = 5000):
        super(TransformerModel,self).__init__()

        self.input_dim  = input_dim
        self.output_dim = output_dim

        #输入嵌入层
        self.embedding = nn.Linear(input_dim,hidden_dim)
        #位置编码
        self.position_encoding = PositionEncoding(hidden_dim,max_len)
        #Transformer编码器层
        self.encoder_layer = nn.TransformerEncoderLayer(d_model = hidden_dim,nhead = num_heads,
                                                        dim_feedforward = hidden_dim * 2)
        #Transformer编码器
        self.transformer_encoder = nn.TransformerEncoder(self.encoder_layer,num_layers = num_layers)
        #输出层
        self.output_layer = nn.Linear(hidden_dim,output_dim)

    def forward(self, x):
        #x的数据格式:(batch_size,se1_len,input_dim)
        #然后经过嵌入层,转换为了(batch_size,se1_len,hidden_dim)
        x = self.embedding(x)        #嵌入层
        #进行位置编码
        x = self.position_encoding(x)
        #将维度进行转置:(batch_size, seq_len, hidden_dim) -->> (seq_len, batch_size, hidden_dim)
        x = x.permute(1,0,2)
        #通过Transformer编码器
        x = self.transformer_encoder(x)
        #单步预测,输出最后一个时间步
        last_output = x[:, -1, :]
        #输出层
        output = self.output_layer(last_output)

        return output

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值