预测领域的新篇章!时间序列与Transformer结合的研究,最新SOTA精准度至95.65%!

2024深度学习发论文&模型涨点之——transformer +时间序列

Transformer模型因其自注意力机制在处理序列数据方面表现出色,已被广泛应用于时间序列分析。它们能够捕捉长距离依赖关系,并处理大规模数据集,使得在时间序列预测和分类任务中取得了显著效果。

此外,Transformer模型也与其他技术结合,如LSTM,形成混合模型以增强对时间序列数据的处理能力。这种结合利用了LSTM的时序建模优势和Transformer的并行处理能力,进一步提升了模型在复杂时间序列任务中的表现。

如果有同学想发表相关论文,小编整理了一些transformer +时间序列 【论文代码】合集,以下放出部分,全部论文PDF版,需要的同学公重号【AI科研灵感】回复“transformer +时间序列 ”即可全部领取

论文精选

论文1:

A Convolutional Transformer Model for Multivariate Time Series Prediction

用于多变量时间序列预测的卷积变换模型

方法

  1. 结合卷积神经网络(CNNs)的变换模型:提出了一个基于变换模型的多变量时间序列预测框架,该框架通过CNN提取输入数据的时间特征,并通过注意力机制解释变量之间的相关性。

  2. 编码器和解码器结构:模型的编码器和解码器由自注意力层、逐点CNN层和一维CNN层组成,用于提取压缩的时空特征。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值