2024深度学习发论文&模型涨点之——transformer +时间序列
Transformer模型因其自注意力机制在处理序列数据方面表现出色,已被广泛应用于时间序列分析。它们能够捕捉长距离依赖关系,并处理大规模数据集,使得在时间序列预测和分类任务中取得了显著效果。
此外,Transformer模型也与其他技术结合,如LSTM,形成混合模型以增强对时间序列数据的处理能力。这种结合利用了LSTM的时序建模优势和Transformer的并行处理能力,进一步提升了模型在复杂时间序列任务中的表现。
如果有同学想发表相关论文,小编整理了一些transformer +时间序列 【论文代码】合集,以下放出部分,全部论文PDF版,需要的同学公重号【AI科研灵感】回复“transformer +时间序列 ”即可全部领取
论文精选
论文1:
A Convolutional Transformer Model for Multivariate Time Series Prediction
用于多变量时间序列预测的卷积变换模型
方法
-
结合卷积神经网络(CNNs)的变换模型:提出了一个基于变换模型的多变量时间序列预测框架,该框架通过CNN提取输入数据的时间特征,并通过注意力机制解释变量之间的相关性。
-
编码器和解码器结构:模型的编码器和解码器由自注意力层、逐点CNN层和一维CNN层组成,用于提取压缩的时空特征。
-
位