【ICML 2022】时序精选论文06|FEDformer: 基于频域应用注意力机制的长期序列预测模型(长时预测效果超SOTA | 代码解读附源码)

ICML 时间序列预测

FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting

FEDformer要解决的问题

待预测的序列长度远远大于输入长度,即基于有限的信息预测更长远的未来。上述需求使得此预测问题极具挑战性,对于模型的预测能力及计算效率有着很强的要求。另外,然而在时间序列预测问题中,序列的分布可能随时间轴的推进不断变化,这就需要模型具备更强的外推能力。

FEDformer解决的方式

  1. 通过周期趋势项分解(seasonal-trend decomposition)降低输入输出的分布差异;
  2. 提出了一种在频域应用注意力机制的模型结构,以增加对噪声的鲁棒性。

FEDformer框架图

总体框架图

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值