- 博客(5)
- 收藏
- 关注
原创 (AAAI | 2024)释放Patch的力量:基于Patch的MLP在长期时间序列预测中的应用
最近许多研究都试图改进Transformer的体系结构,以证明其在长期时间序列预测(LTSF)任务中的有效性。尽管性能不断提高,超越了许多线性预测模型,但作者仍然对Transformer作为LTSF解决方案持怀疑态度。作者将这些模型的有效性主要归因于所采用的Patch机制,该机制在一定程度上增强了序列局部性,但未能完全解决固有的排列不变自注意力机制导致的时间信息丢失问题。进一步的研究表明,用Patch机制增强的简单线性层可能优于复杂的基于Transformer的LTSF模型。
2025-03-29 14:46:52
506
原创 DUET:双向聚类增强的多变量时间序列预测
本文提出了一种名为DUET(Dual Clustering Enhanced Multivariate Time Series Forecasting)的框架,用于提升多变量时间序列预测的性能。DUET通过在时间维度和通道维度引入双重聚类机制,分别建模时间异质性和通道间复杂关系,从而有效应对多变量时间序列预测中的两大挑战:时间分布偏移(Temporal Distribution Shift, TDS)和通道间复杂关联。
2025-02-11 14:33:07
1281
原创 MSGNet:多尺度序列间相关性学习的多变量时间序列预测
多元时间序列预测是各个学科中持续存在的挑战。时间序列数据通常表现出不同的序列内和序列间相关性,导致了复杂和交织的依赖性,这已经成为众多研究的焦点。本文引入了MSGNet,这是一种高级深度学习模型,该模型通过结合频域分析与自适应图卷积技术,旨在高效捕捉跨不同时间尺度的多变量时间序列之间的相互依赖关系。
2025-01-14 15:32:52
1095
原创 Informer:超越Transformer的长序列时序预测模型
许多实际应用都需要对长序列时间序列进行预测,如电力消费规划。长序列时间序列预测(LSTF)要求模型具有较高的预测能力,即能够有效地捕捉输出与输入之间的长期依赖性耦合。最近的研究表明,Transformer 具有提高预测能力的潜力。然而,Transformer 有几个严重的问题使其不能直接应用于 LSTF,包括二次时间复杂度、高内存使用率和编码器-解码器架构的固有限制。
2025-01-08 15:23:08
1629
原创 基于不变学习的分布外泛化时间序列预测
文章的主要研究内容是针对时间序列预测(Time-series forecasting—TSF)中的分布外(Out-of-Distribution—OOD)泛化问题,通过不变学习(Invariant Learning)来减轻这种固有的OOD问题。由于时间序列预测中的核心变量未被观测到,输入可能无法充分确定时间序列预测中的目标变量,从而打破了传统的不变学习假设。时间序列数据集缺乏足够的环境标签,而现有的环境推理方法并不适合时序预测。
2025-01-04 11:39:26
905
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人