- 博客(3)
- 收藏
- 关注
原创 LTSF-Linear 线性长期时序预测模型
时序针对为此作者提出,并与进行比较,看谁的建模效果更好。假设数据包含个变量,在给定历史数据下(窗口长度为),预测未来T(T>1)个时间步的数据。Transformer主要依赖多头注意力机制工作,它具有提取长序列中各元素(如文本中的单词或图像中的块)之间语义关联显著的能力。然而自注意力机制在某种程度上是无序的(特征之间没有空间位置关系)。虽然使用各种类型的位置编码技术可以保留一些排序信息,但在这些技术之上应用自注意力机制后,仍然不可避免会有部分信息损失。由于多头注意力的有效性,在。
2023-11-17 17:33:48
1267
原创 Informer时间序列模型内容与代码解读
用Transformer模型去解决长序列的时间预测问题, 为LSTF设计了一个高效的基于转换器的模型,名为Informer。尤其是提出了一种新的注意力层——ProbSparse Self-Attention和Distilling操作,在减少模型参数的同时大大提升模型的效果,值得在许多场合中借鉴。
2023-11-17 15:35:00
2762
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人