- 博客(60)
- 收藏
- 关注
原创 【AAAI2025】时间序列|FSatten/SOatten:吊打Transformer!高效涨点!
目前的多元时间序列预测 (MTSF) Transformer 方法都基于传统的注意力机制。它们包括序列嵌入和对 Q、K 和 V 执行线性投影,然后在这个潜在空间内计算注意力。本研究从未深入研究注意力机制以探索这样的映射空间是否对 MTSF最优。为了探究这个问题,本研究首先提出了一种基于频域空间的新型注意力机制——频谱注意力(FSatten)。它采用傅里叶变换进行嵌入,并引入多头谱缩放(MSS)来代替 Q 和 K 的传统线性映射。FSatten 可以准确地捕捉序列之间的周期性依赖关系,并且在。
2025-07-31 09:00:00
580
原创 【AAAI2025】时间序列|TAFAS:让你的时间序列预测“起死回生”!
深度神经网络在时间序列预测(TSF)领域取得了显著进展,然而,时间序列的非平稳性却破坏了预训练时间序列预测器在关键任务部署环境中的可靠性。本研究引入了首个专为TSF设计的测试时自适应框架(TSF-TTA)。作为TSF-TTA的拟议方法,TAFAS灵活地将源预测器适应不断变化的测试分布,同时保留预训练期间学习的核心语义信息。对部分观察到的真实值和门控校准模块的新颖利用,使得源预测器能够进行主动、稳健和模型无关的自适应。在各种基准数据集和前沿架构上的实验结果证明了TAFAS的有效性和通用性,尤其是在。
2025-07-29 09:00:00
899
原创 【ICML2025】时间序列|TimeBridge:长期时间序列预测新王者!
非平稳性由于其固有的短期波动和长期趋势,对多元时间序列预测提出了重大挑战,这可能导致伪回归或掩盖重要的长期关系。大多数现有方法要么消除要么保留非平稳性,而没有充分解决其对短期和长期建模的不同影响。消除非平稳性对于避免伪回归和捕获短期建模中的局部依赖性至关重要,而保留非平稳性对于揭示变量之间的长期协整关系至关重要。本研究提出TimeBridge,一个旨在弥合长期时间序列预测中非平稳性和依赖性建模之间差距的新颖框架。通过将输入序列分割成更小的片段,TimeBridge应用集成注意力。
2025-07-28 09:00:00
1150
原创 【AAAI2025】时间序列|ChatTime:统一多模态时间序列基础模型
人类专家通常结合数值和文本多模态信息来分析时间序列。然而,大多数传统的深度学习预测器仅依赖于单模态数值数据,使用固定长度的窗口在单个数据集上进行训练和预测,并且无法适应不同的场景。强大的预训练大型语言模型为时间序列分析带来了新的机遇。然而,现有方法要么训练效率低下,要么无法处理文本信息,要么缺乏零样本预测能力。本研究创新地将时间序列建模为一种外语,并构建了ChatTime,一个用于时间序列和文本处理的统一框架。作为一个开箱即用的多模态时间序列基础模型,ChatTime提供零样本预测能力,并支持。
2025-07-27 09:00:00
1107
原创 【AAAI2025】时间序列|PatchMLP:吊打Transformer!时间序列预测新SOTA!
最近的研究试图改进Transformer架构以证明其在长期时间序列预测(LTSF)任务中的有效性。尽管性能不断提高,超过了许多线性预测模型,本研究仍然对Transformer作为LTSF的解决方案持怀疑态度。本研究将这些模型的有效性主要归因于所采用的Patch机制,该机制增强了序列局部性,但在某种程度上未能完全解决排列不变的自注意力机制固有的时间信息损失问题。进一步的研究表明,简单的线性层结合Patch机制的性能可能优于复杂的基于Transformer的LTSF模型。
2025-07-26 09:00:00
1363
原创 【ICML2025】时间序列|TimePro:炸裂!线性复杂度实现高效长程多元时间序列预测!
在长期时间序列预测中,不同的变量通常在不同的时间间隔内影响目标变量,这种挑战被称为多延迟问题。传统的模型通常统一处理所有变量或时间点,这限制了它们捕捉复杂变量关系和获得非平凡时间表示的能力。为了解决这个问题,本研究提出了TimePro,一个创新的基于Mamba的模型,它构建了变量和时间感知的超状态。与仅跨变量或时间维度传递普通状态的传统方法不同,TimePro保留了每个变量标记的细粒度时间特征,并自适应地选择聚焦的时间点来调整普通状态。
2025-07-25 09:00:00
1452
原创 【ICML2025】时间序列|AdaPTS:让你的单变量时间序列预测模型“起死回生”!轻松驾驭多变量时间序列预测!
预训练的基础模型 (FMs) 在单变量时间序列预测任务中表现出色。然而,一些实际挑战仍然存在,包括管理特征之间复杂的依赖关系和量化预测的不确定性。本研究旨在通过引入适配器来解决这些关键限制,适配器是一种特征空间变换,有助于有效地将预训练的单变量时间序列 FM 用于多变量任务。适配器通过将多变量输入投影到合适的潜在空间并独立地将 FM 应用于每个维度来运行。受表征学习和部分随机贝叶斯神经网络文献的启发,本研究提出了一系列适配器和优化/推理策略。在合成数据集和真实数据集。
2025-07-24 09:00:00
859
原创 【ICML2025】时间序列|AdaPTS:让你的单变量预测模型“起死回生”!
预训练的基础模型(FMs)在单变量时间序列预测任务中表现出色。然而,一些实际挑战依然存在,包括管理特征之间复杂的依赖关系和量化预测的不确定性。本研究旨在通过引入适配器来解决这些关键限制,适配器是一种特征空间变换,有助于有效地将预训练的单变量时间序列 FM 用于多变量任务。适配器通过将多变量输入投影到合适的潜在空间,并独立地将 FM 应用于每个维度来运作。受表征学习和部分随机贝叶斯神经网络文献的启发,本研究提出了一系列适配器和优化/推理策略。在合成数据集和真实数据集。
2025-07-23 09:00:00
1096
原创 【ICML2025】时间序列|A2P:时间序列异常预测新SOTA!
本研究针对预测时间序列中未来异常事件这一重要课题,提出了名为“异常到提示”(A2P)的新颖框架。该框架由异常感知预测(AAF)和合成异常提示(SAP)两部分组成。为了使预测模型能够预测异常时间点,本研究采用了一种学习异常之间关系的策略。为了稳健地检测异常,本研究提出的SAP引入了一个可学习的异常提示池(APP),它使用信号自适应提示来模拟各种异常模式。在多个真实世界数据集上进行的综合实验证明了A2P相对于现有技术的优越性,展示了其预测未来异常的能力。
2025-07-22 09:00:00
1162
原创 【AAAI2025】时间序列|AMD:带你玩转多尺度时间序列预测!
基于时间序列中多尺度纠缠效应的观察,本研究提出了一种新的基于MLP的时间序列预测自适应多尺度分解(AMD)框架。本框架利用多尺度可分解混合(MDM)模块将时间序列分解成多个尺度上的不同时间模式,并对这些模式进行分解和聚合。通过双依赖交互(DDI)模块和自适应多预测器合成(AMS)模块的补充,本方法有效地建模了时间和通道依赖性,并利用自相关来改进多尺度数据集成。综合实验表明,本研究的AMD框架不仅克服了现有方法的局限性,而且在各种数据集上始终实现了最先进的性能。
2025-07-21 09:00:00
1292
原创 【KDD2025】时间序列|Merlin:不固定缺失率下时间序列预测新SOTA!
多变量时间序列预测 (MTSF)涉及预测多个相互关联的时间序列的未来值。近年来,基于深度学习的 MTSF 模型因其在 MTS 数据中挖掘语义(全局和局部信息)的强大能力而受到广泛关注。然而,这些模型普遍容易受到数据采集器故障导致的缺失值的影响。这些缺失值不仅会破坏 MTS 的语义,而且它们的分布也会随时间变化。尽管如此,现有模型缺乏对这些问题的鲁棒性,导致预测性能欠佳。为此,本研究提出了多视图表征学习 (Merlin),它可以帮助现有模型在 MTS 中实现不同缺失率的不完整观测值与完整观测值之间的。
2025-07-20 09:00:00
2709
原创 【KDD2025】时间序列|SDE:让你的时间序列预测脱胎换骨!
近年来,深度学习的进步促进了许多用于长期时间序列预测(LTSF)模型的发展。然而,大多数现有方法难以完全捕捉时间序列数据中固有的复杂和结构化依赖关系。本研究识别并正式定义了对预测精度至关重要的三个关键依赖关系:沿时间维度的顺序依赖和语义依赖,以及跨特征维度的跨变量依赖。这些依赖关系通常被孤立地处理,处理不当会引入噪声并降低预测性能。为了弥合这一差距,本研究调查了状态空间模型(SSM)在LTSF中的潜力,并强调了它们在捕捉这些基本依赖关系方面的固有优势。
2025-07-19 09:00:00
870
原创 【KDD2025】时间序列|KDD‘25 FPS:预测模型也能改变未来!
时间序列预测是各个领域中的关键挑战,近年来取得了显著进展。许多现实生活场景,如公共卫生、经济和社会应用,都涉及反馈回路,其中预测模型可以触发影响其预测结果的行为,从而改变目标变量的分布。这种现象被称为“执行性”,它引入了“自我否定”或“自我实现”预测的可能性。尽管对跨领域分类问题中的执行性进行了广泛研究,但从机器学习的角度来看,这种现象在时间序列预测的背景下很大程度上仍未得到探索。本研究将执行性时间序列预测 (PeTS)正式化,解决了当可能发生执行性引起的分布变化时进行预测的挑战。
2025-07-18 09:00:00
1301
原创 【KDD2025】时间序列|KDD‘25爆款!FPS:预测时间序列还能这样玩?!
时间序列预测是各个领域的关键挑战,近年来取得了重大进展。许多现实生活场景,例如公共卫生、经济和社会应用,都涉及反馈循环,其中预测模型可以触发影响其预测结果的行为,从而改变目标变量的分布。这种现象被称为“执行性”,引入了“自我否定”或“自我实现”预测的可能性。尽管对跨领域分类问题的执行性进行了广泛研究,但从机器学习的角度来看,这种现象在时间序列预测的背景下很大程度上仍未得到探索。本研究将执行性时间序列预测 (PeTS)正式化,解决了当可能发生执行性引起的分布变化时的预测挑战。
2025-07-17 09:00:00
594
原创 【KDD2025】时间序列|CrossLinear:时间序列预测新王者!
时间序列外生变量预测是一个新兴的范例,它在变量依赖建模方面提出了独特的挑战。传统模型通常难以区分内生变量和外生变量,导致效率低下和过拟合。本研究提出了一种新的基于线性模型的预测模型,它通过引入即插即用的互相关嵌入模块来解决这些挑战。该轻量级模块以最小的计算成本捕获变量之间的依赖关系,并无缝集成到现有神经网络中。具体来说,它捕获时不变的和直接的变量依赖关系,而忽略时变的或间接的依赖关系,从而减轻依赖建模中过拟合的风险,并有助于持续的性能提升。此外,采用分块处理和全局线性头,以有效地捕获。
2025-07-16 09:00:00
1432
原创 【ICML2025】时间序列|Time-VLM:少样本/零样本学习吊打所有模型!时间序列预测新王者?
本研究探索了使用文本或视觉模态增强模型以提高时间序列预测准确性的最新进展。虽然文本提供了上下文理解,但它通常缺乏细粒度的时间细节。相反,视觉捕获复杂的时间模式,但缺乏语义上下文,限制了这些模态的互补潜力。为了解决这个问题,本研究提出了Time-VLM,一个利用预训练的视觉语言模型 (VLM)来桥接时间、视觉和文本模态以增强预测的新型多模态框架。本框架包含三个关键组件:(1)检索增强学习器,它通过记忆库交互提取丰富的时间特征;(2)视觉增强学习器,它将时间序列编码为信息图像;(3)文本增强学习器。
2025-07-14 09:00:00
1199
原创 【TMLR2022】时间序列|DTW-GI:炸裂!多维时间序列对齐新高度!
本研究提出了一个新的距离,通过学习特征空间的潜在全局变换以及时间对齐,将其转换为联合优化问题,从而解释特征空间和时间变化。本研究框架的多功能性允许根据所讨论的不变性类别进行多种变体。除其他贡献外,本研究还定义了时间序列的可微损失,并提出了两种在此新几何下计算时间序列重心的算法。本研究在模拟和真实世界数据上展示了本研究方法的意义,并展示了本研究方法与最先进方法相比的稳健性。
2025-07-13 09:00:00
798
原创 【ICML2024】时间序列|CATS : 辅助时间序列,多变量预测新突破!
对于多元时间序列预测(MTSF),近期的深度学习应用表明,单变量模型通常优于多变量模型。为了解决多变量模型的不足,本研究引入了一种构建辅助时间序列(CATS)的方法,其功能类似于2D时序上下文注意力机制,该机制从原始时间序列(OTS)生成辅助时间序列(ATS),从而有效地表示和整合序列间的关系以进行预测。本研究确定了ATS的关键原则——连续性、稀疏性和变异性,并通过不同的模块来实现。即使使用基本的2层MLP作为核心预测器,CATS也能达到最先进的水平,与之前的多变量模型相比,
2025-07-12 09:00:00
1424
原创 【ICML2024】时间序列|SparseTSF:让长时序预测模型轻量到极致!
本研究介绍了一种名为 SparseTSF的新型超轻量级模型,用于长期时间序列预测 (LTSF),旨在解决以最小的计算资源对扩展范围内复杂时间依赖性进行建模的挑战。SparseTSF的核心在于跨周期稀疏预测技术,该技术通过解耦时间序列数据中的周期性和趋势来简化预测任务。该技术涉及对原始序列进行降采样,以专注于跨周期趋势预测,从而有效地提取周期性特征,同时最大限度地降低模型的复杂性和参数数量。基于该技术,SparseTSF模型使用少于 1k 个参数,即可实现与最先进模型相比具有竞争力或更优越的性能。此外,
2025-07-11 09:00:00
1129
原创 【ICML2024】时间序列|TimesFM : 颠覆认知!零样本时间序列预测
本研究设计了一个用于时间序列预测的时间序列基础模型,该模型通过在包含真实世界和合成数据集的大型时间序列语料库上,使用输入patching预训练一个decoder风格的注意力模型。该模型在各种公共数据集上的zero-shot表现接近于每个数据集的最先进的监督预测模型的准确性。在先前未见过的各种预测数据集上进行的实验表明,该模型可以在不同的领域预测范围和时间粒度上产生准确的zero-shot预测。
2025-07-10 09:00:00
2581
原创 【NeurIPS2024】时间序列|CATS : 无需自注意力,让时间序列预测起飞!
时间序列预测对于跨多个领域和各种应用场景至关重要。虽然Transformer模型在预测领域取得了显著进展,但其有效性仍存在争议。最近的研究表明,更简单的线性模型可能优于复杂的基于Transformer的方法,突出了简化架构的潜力。本研究将重点从评估整体Transformer架构转移到专门研究自注意力机制对于时间序列预测的有效性。为此,本研究引入了一种新的架构,即仅使用交叉注意力的时间序列Transformer(CATS),它通过消除自注意力并利用交叉注意力机制来重新思考传统的Transformer框架。
2025-07-09 09:00:00
2284
原创 【ICML2024】时间序列|SAMformer:吊打SOTA!时间序列预测的“救星”?
基于Transformer的架构在自然语言处理和计算机视觉领域取得了突破性的性能,但在多元长期预测中,它们仍然不如更简单的线性基线。为了更好地理解这种现象,本研究首先研究了一个玩具线性预测问题,结果表明,尽管Transformer具有很高的表达能力,但无法收敛到其真实的解决方案。进一步发现Transformer的注意力机制是导致这种低泛化能力的原因。在此基础上,本研究提出了一种浅层轻量级的Transformer模型,该模型在使用锐度感知优化进行优化时,能够成功地逃脱不良的局部最小值。
2025-07-08 09:00:00
495
原创 【KDD2024】时间序列|HimNet:全新时空预测框架,精度起飞!
时空时间序列预测在广泛的现实世界应用中起着关键作用。尽管该领域已取得显著进展,但充分捕获和利用时空异质性仍然是一项根本挑战。因此,本研究提出了一种新颖的异质性信息元参数学习方案。具体而言,本研究的方法通过学习空间和时间嵌入来隐式地捕获时空异质性,这可以被视为一个聚类过程。然后,提出了一种新的时空元参数学习范式,以从元参数池中学习时空特定参数,该过程由捕获的异质性提供信息。基于这些思想,本研究开发了一个用于时空时间序列预测的异质性信息时空元网络(HimNet)。
2025-07-07 09:00:00
872
原创 【KDD2024】时间序列|STEMO : 基于多目标强化学习的时空预测模型,精度实时性双提升
准确性和及时性在预测任务中通常是相互冲突的目标。过早的预测可能导致较高的误报率,而延迟预测以收集更多信息可能会使其为时过晚而无用。在野火、犯罪和交通拥堵等应用中,及时预测对于保障人类生命和财产至关重要。因此,找到准确性和及时性之间的平衡至关重要。本研究提出了一种基于多目标强化学习的早期时空预测模型,该模型可以根据偏好实施最佳策略,或者根据少量样本推断偏好。提高早期预测的准确性;提供最佳策略,以确定每个区域最合适的预测时间。
2025-07-06 09:00:00
947
原创 【KDD2024】时间序列|UniST : 颠覆认知!通用时空预测模型横空出世
城市时空预测对于知情决策至关重要,例如交通管理、资源优化和应急响应。尽管预训练自然语言模型取得了显著突破,使单个模型能够处理各种任务,但时空预测的通用解决方案仍然具有挑战性。现有的预测方法通常是为特定的时空场景量身定制的,需要针对特定任务的模型设计和广泛的领域特定训练数据。本研究介绍UniST,这是一个通用模型,旨在跨各种场景进行通用城市时空预测。受到大型语言模型(i) 利用来自不同场景的多样化时空数据, (ii) 有效的预训练以捕捉复杂的时空动态, (iii) 知识引导的提示以增强泛化能力。
2025-07-05 09:00:00
1170
原创 【arXiv2024】时间序列|UNITS:一套模型搞定!多任务时间序列预测YYDS!
本研究介绍了一种统一的多任务时间序列模型UNITS,该模型利用任务标记化将预测和生成任务集成到一个框架中。UNITS采用改进的Transformer模块来捕获通用时间序列表示,从而能够从异构、多域的预训练数据集(具有不同的动态模式、采样率和时间尺度)迁移到具有不同任务规范和数据领域的各种下游数据集。在人类活动传感器、医疗保健、工程和金融领域的38个数据集上进行测试,UNITS与12个预测模型、20个分类模型、18个异常检测模型和16个插补模型(包括改编的基于文本的LLM)相比,取得了优异的性能。
2025-07-04 09:00:00
978
原创 【ECAI2024】时间序列|TimeMachine:让时间序列预测精度起飞!
本研究提出了一种名为的创新模型,该模型利用Mamba(一种状态空间模型)来捕获多元时间序列数据中的长期依赖关系,同时保持线性可扩展性和小内存占用。TimeMachine利用时间序列数据的独特属性,在多尺度上产生显著的上下文线索,并利用一种创新的集成四重Mamba架构来统一处理通道混合和通道独立的情况,从而能够根据不同尺度的全局和局部上下文有效地选择预测内容。通过使用基准数据集进行广泛验证,实验结果表明,TimeMachine在预测精度可扩展性和内存效率方面均表现出卓越的性能。
2025-07-03 09:00:00
654
原创 【ICML2024】时间序列|FOIL:不变学习,让时间序列预测OOD泛化能力起飞!
时间序列预测(TSF)在现实场景中有着广泛的应用。由于时间序列数据的动态特性,为TSF模型配备超出分布(OOD)的泛化能力至关重要,因为历史训练数据和未来测试数据可能具有不同的分布。本研究旨在通过不变学习来缓解TSF中固有的OOD问题。本研究确定了TSF不变学习的基本挑战。首先,由于TSF中未观察到的核心变量,TSF中的目标变量可能无法被输入充分确定,从而打破了不变学习的传统假设。其次,时间序列数据集缺乏充分的环境标签,而现有的环境推断方法不适用于TSF。为了应对这些挑战,本研究提出FOIL,这是一个。
2025-07-02 09:00:00
576
原创 【ICLR2024】时间序列|iTransformer:炸裂!Transformer竟是时间序列预测神器?!
基于时间序列的全局依赖性建模,已成为时间序列预测的主流模型。然而,由于性能下降和计算量爆炸,Transformer在预测具有较大回溯窗口的序列方面存在挑战。此外,每个时间标记的嵌入融合了代表潜在延迟事件和不同物理测量的多个变量,这可能无法学习以变量为中心的表示,并导致无意义的注意力图。本研究反思了Transformer组件的功能,并在不修改基本组件的情况下重新利用了Transformer架构。本研究提出了,它简单地将注意力和前馈网络应用于反转的维度上。
2025-07-01 09:01:07
903
原创 【WWW2024】时间序列|UniTime:即插即用!用语言模型轻松搞定跨域时间序列预测!
多变量时间序列预测在当代网络技术中扮演着关键角色。与为特定时间序列应用领域创建专用模型的传统方法相比,本研究提倡一种超越领域界限的统一模型范式。然而,学习一个有效的跨领域模型存在以下挑战。首先,不同领域的数据特征存在差异,例如变量的数量,这对现有模型对这些因素施加不灵活的约束构成了障碍。其次,模型可能难以区分来自不同领域的数据,导致在本研究评估中表现不佳。第三,时间序列领域的不同收敛速度也可能导致经验性能下降。为了解决这些问题,本研究提出了UniTime,用于有效的跨领域时间序列学习。
2025-06-30 09:00:00
866
原创 【WWW2024】时间序列|DMM:DMM炸裂登场!打开TTS聚类新大门!
时间序列的子序列聚类是数据挖掘中的一项重要任务,解释聚类结果也至关重要,因为通常我们没有数据的先验知识。因此,给定包含多个维度(包括时间戳)的大量张量时间序列集合,我们如何才能实现张量时间序列的子序列聚类并提供可解释的见解?在本研究中,我们提出了一种名为动态多网络挖掘 (DMM)的新方法,它可以将张量时间序列转换为一组不同长度的片段组(即聚类),这些片段组的特征是受ℓ1范数约束的依赖网络。本方法具有以下特性。(a) 可解释性。
2025-06-29 09:00:00
923
原创 【WWW2024】E2Usd:让MTS状态检测效率飙升,效果炸裂!
赛博物理系统传感器会发出多元时间序列 (MTS) 以监控物理系统过程。此类时间序列通常捕获未知数量的状态,每个状态具有不同的持续时间,对应于特定条件,例如,在人类活动监控中的“行走”或“跑步”。对这些状态进行无监督识别有助于后续数据分析中的存储和处理,并增强结果的可解释性。现有的状态检测方案面临三个挑战。首先,它们引入了大量的计算开销,使其在资源受限或流式传输环境中不切实际。其次,虽然最先进的 (SOTA) 方案采用对比学习进行表征,但对假阴性的关注不足会阻碍模型收敛和准确性。
2025-06-28 09:00:00
987
原创 【AAAI2025】时间序列|VarDrop:时序预测Transformer训练效率竟如此丝滑?
本研究旨在解决多元时间序列预测中,由于变量标记化导致的大规模应用中训练效率低下的问题。为了解决这个问题,本研究提出了一种简单而有效的策略**VarDrop,通过在训练期间省略冗余变量标记来减少标记的使用。VarDrop自适应地排除给定批次内的冗余标记,从而减少用于点积注意力的标记数量,同时保留必要的信息。具体来说,本研究引入了k-主导频率哈希(k-DFH),它利用频域中排序的主导频率作为哈希值,以有效地对表现出相似周期行为的变量标记进行分组。然后,仅通过分层抽样对每个组中的代表性标记进行抽样。
2025-06-27 09:00:00
1086
原创 【ICML2024】aLLM4TS : 时间序列也能用LLM拿捏了?
本研究提出了一种名为aLLM4TS的创新框架,该框架旨在将大型语言模型(LLM)应用于时间序列表示学习。本研究的核心是将时间序列预测重新构想为一个自监督的多块预测任务,与传统的对比学习或掩码重建方法相比,这种方法能够更有效地捕捉块表示中的时间动态。本研究的策略包括两个阶段的训练:(i)在一个以预测下一个块为基础的各种时间序列数据集上进行因果持续预训练阶段,有效地将LLM 的能力与时间序列数据的复杂性同步起来;(ii)在目标时间序列上下文中对多块预测进行微调。本研究框架的一个显著特点是逐块解码层。
2025-06-26 09:00:00
1337
原创 【ICML2024】TimesFM:无需训练!时间序列预测迎来新纪元!
受自然语言处理(NLP)领域大型语言模型最新进展的启发,本研究设计了一个用于时间序列预测的基础模型,该模型在各种公共数据集上的开箱即用零样本性能,接近于在每个单独数据集上最先进的监督预测模型的准确性。本研究的模型基于预训练一个带有输入补丁的解码器风格注意力模型,使用包含真实世界和合成数据集的大型时间序列语料库。在一组先前未见过的预测数据集上进行的实验表明,该模型可以在不同的领域、预测范围和时间粒度上产生准确的零样本预测。
2025-06-25 09:00:00
716
原创 【ICML2024】TimeSiam:让时间序列模型更上一层楼
时间序列预训练因其降低标签成本和有益于各种下游任务的潜力而受到广泛关注。先前的方法主要基于在视觉或语言领域中广为人知的预训练技术,例如掩码建模和对比学习。然而,随机掩盖时间序列或计算序列间的相似性会扭曲或忽略时间序列数据中至关重要的内在时间相关性。为了强调时间相关性建模,本研究提出了 TimeSiam,这是一个基于 Siamese 网络的简单而有效的自监督时间序列预训练框架。具体而言,TimeSiam预训练Siamese 编码器,以捕获随机采样的过去和当前子序列之间的内在时间相关性。
2025-06-24 09:00:00
897
原创 【AAAI2025】时间序列|ARMD:颠覆认知!连续扩散让时间序列预测一骑绝尘
论文地址:https://arxiv.org/pdf/2412.09328代码地址:https://github.com/daxin007/ARMD为了更好地理解时间序列模型的理论与实现,推荐参考UP “ThePPP时间序列” 的教学视频。该系列内容系统介绍了时间序列相关知识,并提供配套的论文资料与代码示例,有助于理论与实践相结合。https://space.bilibili.com/613453963时间序列预测在各个领域至关重要,而最近基于扩散的时间序列预测模型的进展显示出了相当大的前景。然而,这
2025-06-23 09:00:00
887
原创 【AAAI2025】时间序列|Affirm:交互式Mamba,长时序预测天花板?
在长期时间序列预测(LTSF)中,模型必须巧妙地从历史时间序列数据中辨别和提取信息,从而预测未来状态。虽然基于 Transformer 的模型擅长捕捉 LTSF 中的长期依赖关系,但由于计算效率低下对噪声敏感以及在较小数据集上容易过拟合等问题,它们的实际应用受到限制。因此,本研究引入了一种新颖的时间序列轻量级交互式 Mamba 模型,该模型具有自适应傅里叶滤波器(Affirm)。具体来说,(i) 本研究提出了一个自适应傅里叶滤波器块。
2025-06-22 09:00:00
1154
原创 【AAAI2025】TimeCMA:LLM赋能!时间序列预测精度暴涨!
本研究介绍了一种名为TimeCMA的框架,它通过跨模态对齐来实现LLM赋能的多元时间序列预测。现有方法在学习解耦嵌入方面存在不足,因此,本研究提出一种双模态编码,包含时间序列编码分支和LLM赋能的编码分支。时间序列编码分支提取解耦但较弱的时间序列嵌入,而LLM赋能的编码分支将相同的时间序列与文本提示相结合,以获得纠缠但鲁棒的提示嵌入。这种跨模态对齐能够从基于时间序列和提示模态相似性的提示嵌入中检索出解耦且鲁棒的时间序列嵌入,从而实现**“两全其美”。此外,为了减少。
2025-06-21 09:02:32
1272
原创 【ICML2024】TimeMIL : 时序分类“弯道超车”的秘密武器
深度神经网络,包括和卷积神经网络,已经显著改进了多元时间序列分类(MTSC)任务。然而,这些方法通常依赖于监督学习,无法充分考虑时间序列数据中模式的稀疏性和局部性(例如,心电图中与疾病相关的异常点)。为了应对这一挑战,本研究正式将MTSC重新定义为一个弱监督问题,引入了一种新颖的多示例学习(MIL)框架,以更好地定位感兴趣的模式并建模时间序列中的时间依赖性。本研究提出的新方法TimeMIL,通过时间感知的MIL池化来构建时间相关性和排序,利用带有。
2025-06-19 09:00:00
1319
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅