一、摘要
本文介绍论文《Understanding Different Design Choices in Training Large Time Series Models》,这篇由多所大学成员合作的研究介绍了一种时间序列Prompt,用于提升大模型在时间序列预测任务中的性能。

译文:
受大型语言模型(LLMs)的启发,时间序列预测(TSF),这一时间序列分析中的长期任务,正在向大型时间序列模型(LTSMs)转变,旨在训练基于Transformer的通用模型用于TSF。然而,在异质时间序列数据上训练LTSMs面临独特的挑战,包括数据集之间的频率、维度和模式的多样性。最近的研究探讨并评估了各种设计选择,旨在增强LTSM的训练和泛化能力,涵盖了预处理技术、模型配置和数据集配置。在这项工作中,我们全面分析了这些设计选择,并旨在确定训练LTSM的最佳实践。此外,我们提出了时间序列提示,这是一种针对时间序列数据的新颖统计提示策略。基于我们的分析观察,我们引入了LTSM-bundle,它捆绑了我们识别出的最佳设计选择。实证结果表明,LTSM-bundle在基准数据集上相比于最先进的LTSMs和传统的TSF方法,取得了更优的零样本和少样本性能。

最低0.47元/天 解锁文章
3476

被折叠的 条评论
为什么被折叠?



