(10)时间序列预测之TimeXer


文章信息

  1. 模型: TimeXer(Time Series Transformer with eXogenous variables)
  2. 关键词:时间序列预测,外部变量(Exogenous Variables)
  3. 作者:Yuxuan Wang ; Haixu Wu(吴海旭) ; Jiaxiang Dong ; Yong Liu ; Yunzhong Qiu ; Haoran Zhang ; Jianmin Wang(王建民) ; Mingsheng Long(龙明盛)
  4. 机构:清华大学
  5. 发表情况:暂无 [arXiv:Submitted on 29 Feb 2024 (v1), last revised 11 Nov 2024 (this version, v4)]
  6. 网址:[2402.19072] TimeXer: Empowering Transformers for Time Series
    Forecasting with Exogenous Variables

前言

1. 序列表示的level

在这里插入图片描述

2. 内生变量与外生变量(Endogenous & Exogenous)

  内生变量:只关注感兴趣的目标
  外生变量:为内生变量提供有价值的外部信息
数据集上举例:
在这里插入图片描述外生变量的作用
  从时间序列建模的角度来看,外生变量被引入到预测器中是为了提供信息,而不需要预测。
  将外生变量与内生变量等同对待,不仅会造成时间和记忆的极大复杂性,而且还会涉及到内生序列与外部信息之间不必要的相互作用。
  其次,外部因素可能会对内生序列产生因果影响,因此模型需要对不同变量之间系统时间滞后(systematic time lags)进行推理。
  再者,实际场景中相比于内生变量会出现以下问题:
在这里插入图片描述
  因此如何将外生

03-08
### TimeXer简介 TimeXer是一种基于Transformer架构设计的时间序列预测工具,特别适用于包含外部变量的时间序列预测任务。该模型在保持经典Transformer结构不变的基础上,引入了特定于时间序列的改进措施[^1]。 #### 特征概述 - **双路径嵌入机制**:为了有效区分并处理内部(内生)和外部(外生)因素的影响,TimeXer实现了两种不同类型的嵌入——即`Endogenous Embedding`用于表示内在特征;`Exogenous Embedding`则负责编码外界条件的变化情况。 - **多级注意力网络**:通过集成自注意力层(`Self-Attention`)以及跨模态交互层(`Cross-Attention`),能够同时捕捉到沿时间轴发展的模式关联性及时变要素间的相互作用规律。 ```python import timexer as txr # 初始化配置参数字典 config = { 'input_size': 784, # 输入向量长度 'output_size': 10, # 输出类别数 'hidden_dim': 512, # 隐藏单元数量 } model = txr.TimeXerModel(config) # 加载预训练权重 (如果有的话) if pretrained_weights_path is not None: model.load_state_dict(torch.load(pretrained_weights_path)) ``` 此段代码展示了如何创建一个简单的TimeXer实例,并加载可能存在的预训练权重文件。需要注意的是,在实际应用中还需要根据具体场景调整输入尺寸和其他超参设置。 ### 使用指南 对于想要利用TimeXer来进行更深入研究或者项目开发的研究人员来说: - 应当熟悉Python编程环境及其常用的数据科学库; - 掌握基本的时间序列理论基础,了解ARIMA等传统方法的工作原理有助于更好地理解新旧技术之间的联系与区别; - 学习掌握PyTorch或其他支持动态计算图构建的深度学习框架将是必不可少的前提之一。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值