时序必读论文05|PatchTST : 时序数据Patch已成趋势【ICLR 2023】

图片

书接上回,我们在之前的文章已经分析了直接把transformer应用到时间序列预测问题的不足,其中我们总结了4个不足:分别是:

  • 注意力机制的计算复杂度高,为 O(N^2),并且计算得出的权重仅有少部分有用;

  • 注意力机制仅建立单时间点位之间的关系,实际能提取到的信息非常有限;

  • 对时序或者说位置的建模表示不够充分,而时序任务中前后位置关系是重中之重;

  • 没有专门的机制在数据“平稳化(之后详解)”和“非平稳化”之间达到合适的平衡。

其中Informer对第一点做了较大的改进;Non-stationary Transformers围绕第四点做了较多改进。那么2023年ICLR的文章Patch TST,对第一、二、三点,特别是第二点做了极大的改进。Patch TST发表后,现在已经有大量的Patch相关的时序论文发表,如下是一些patch相关的时序论文,Patch俨然成为最新的时序热点趋势。

香港科技大学:A Multi-Scale Decomposition MLP-Mixer for Time Series Analysis

华为:Multi-resolution Time-Series Transformer for Long-term Forecasting

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值