论文标题:AutoTimes: Autoregressive Time Series Forecasters via Large Language Models
论文链接:https://arxiv.org/abs/2402.02370
代码链接:https://github.com/thuml/AutoTimes
前言
最近大家在读ICLR25的文章吗?感觉高分论文需要的知识储备好多,阅读门槛也太高了~
回到这篇文章,本文提出“AutoTimes”方法,旨在将大型语言模型重新用于自回归时间序列预测,通过把时间序列投射到语言标记的嵌入空间中,并以自回归的方式生成任意长度的未来预测结果。“AutoTimes”将时间序列表述为提示信息,将预测的上下文扩展到回顾窗口之外,这被称为“上下文内预测”。通过引入嵌入大型语言模型的文本时间戳,“AutoTimes”能够利用时间顺序信息来对齐多元时间序列。与先进的基于大型语言模型的预测器相比,“AutoTimes”仅用0.1%的可训练参数就实现了最先进的性能,并且训练/推理速度提升了5倍以上。
图1:(