- 博客(297)
- 收藏
- 关注
原创 WITRAN_2DPSGMU_Encoder 类中,门机制
类中,门机制是核心部分,类似于 LSTM 或 GRU 的门控机制,用于控制隐藏状态的更新和输出。以下是对门机制的详细解析。这种门机制类似于 LSTM,但针对二维时间序列数据进行了扩展,分别更新行和列的隐藏状态,从而捕获时间序列的复杂依赖关系。
2025-04-14 20:49:01
427
原创 WITRAN_2DPSGMU_Encoder 类
类的主要逻辑和流程的图示化表示,帮助你更直观地理解代码的执行过程。通过以上图示化表示,可以更直观地理解。
2025-04-14 20:14:11
327
原创 【WITRAN 源码解读】
是通过滑动窗口填充生成的扩展张量,其内容包含了原始输入的所有信息,并在时间维度上产生了重叠。这种设计为模型提供了更多的上下文信息,帮助捕获时间序列的依赖关系。以下通过具体的例子和类比来帮助你理解四维张量的结构和操作。扩展后的张量可以看作是“时间序列的滑动窗口”,每一行的数据与其他行的数据在时间维度上产生了重叠。在时间维度上产生了重叠,为模型提供了更多的上下文信息,帮助捕获跨天的时间依赖关系。通过滑动窗口的方式,将原始输入扩展为形状。是通过滑动窗口的方式,将原始输入。通过滑动窗口的方式填充,扩展后的。
2025-04-14 17:10:35
441
原创 Autoformer编码器的季节性与趋势处理流程
Autoformer通过这种精心设计的渐进式分解架构,使模型能够更好地处理时间序列数据,特别是在长期预测任务中表现出色。
2025-03-21 10:29:05
371
原创 Autoformer中序列分解的特殊性与意义
Autoformer中的序列分解(series_decomp)是该模型最具创新性的特点之一,它深刻体现了时间序列数据处理的特殊需求。
2025-03-21 10:18:51
304
原创 Autoformer中序列分解的特殊性与意义
Autoformer中的序列分解(series_decomp)是该模型最具创新性的特点之一,它深刻体现了时间序列数据处理的特殊需求。
2025-03-21 10:16:50
258
原创 【统计学相关知识】极小充分统计量
一般来说,使用因子分解定义找到的充分统计量,直观地找到的,一般是极小充分统计量,但还是要遵循严格的证明。极小充分统计量不具有唯一性,具有不变性,线性映射仍然是极小充分统计量。定义、判别,计算上的定义。
2025-03-18 22:08:17
179
原创 【AutoFormer 源码理解】DecoderLayer
好的,让我们为类的forward方法中的每行代码添加注释,说明代码的目的和形状的变化。
2025-03-18 15:40:40
284
原创 【AutoFormer 源码理解】注意力模块调用关系
这种设计允许模型有效捕获时间序列中的周期性模式和长期依赖关系,而不依赖传统的点积注意力机制。
2025-03-18 13:18:38
293
原创 【NeurIPS 2021】Autoformer、源码论文对照
因此,在提高效率的过程中,由于稀疏的逐点连接,这些模型会牺牲信息利用效率,从而导致时间序列长期预测的瓶颈。时间序列预测问题是指在给定过去长度为I的时间序列的情况下,预测未来最可能的长度为O的时间序列,记作input-I-predict-O。为了应对长期时间序列预测中复杂的时间模式,我们尝试引入分解的思想,这是时间序列分析中的标准方法。• 为应对长期未来复杂的时间模式,我们提出了Autoformer作为一种分解架构,并设计了内部的分解块,赋予深度预测模型逐步分解的内在能力。
2025-03-18 12:53:59
686
1
原创 【SegRNN 源码理解】【今天不水文系列】编码器部分理解
(15)样本 334-特征 1 :【512】【512】【512】【512】【512】(15)样本 334-特征 7 :【512】【512】【512】【512】【512】(0)样本 1-特征 1 :【512】【512】【512】【512】【512】(0)样本 1-特征 2 :【512】【512】【512】【512】【512】(0)样本 1-特征 7 :【512】【512】【512】【512】【512】(1)样本 6-特征 1 :【512】【512】【512】【512】【512】
2025-03-05 22:12:10
1050
原创 【SegRNN 源码理解】图示理解 forward的过程
这种设计使SegRNN能高效处理长序列预测问题,特别是在多变量时间序列中,不同特征具有不同时间模式的情况。
2025-03-05 17:57:03
663
原创 【SegRNN 源码理解】PMF的多步并行预测
用自己的话,593 个样本,随机选择了 16 个,这16 个样本的时间步并不一定是连续的,但是一个 batch 内部封装的 60 个时间步一定是连续的。我又有了一个新的问题,训练集大小是 593 个样本,怎么 batchsize=16,seqlen=60。
2025-03-05 17:39:57
542
原创 【SegRNN 源码理解】
特征,时间步,每个特征 60 个观察值,分成 5 份,每份 12 个时间步,嵌入到 512 维输入: x = [16, 7, 60] # [batch, feature, time]v 重塑v 嵌入。
2025-03-05 17:09:02
459
原创 【今天不水文系列】RevIN
为什么叫可逆实例标准化,实例标准化说完了,可逆是因为标准化以后还能还原,以为可以保留均值和方差,毕竟 谁跟谁构成一个 batch 是随机的,不能按照特定的顺序非得0-60batch,60-120batch,起始索引是随意选的,所以 batch 内部,每个特征标准化以后还要还原回去。大家好,今天我叫不水文,最近开始看时间序列了,据说3 次输出=10 次输入,有时间也想录个视频讲讲,但是在学校说话属实不方便,罢了。那理解了是什么,就要理解为什么要这么做,例子,以感冒为例,因为下图,不好懂得话可以看下下图。
2025-03-05 15:25:36
296
原创 【SegRNN代码理解之】dataloader是怎么封装的
batch_x.shape 标准化以后得原始特征 = 16*60*7 batch_y.shape = [16, 24, 7];batch_x_mark时间戳特征=[16, 60, 4];因为时间序列样本是样本,时间步是时间步,是怎么做到时间步的滑动窗口、重叠的时间步的滑动窗口和时间步重叠。
2025-03-04 11:03:25
972
原创 【SegRNN 代码理解】之为什么 train输出有 593 条
输入要有 60 个,预测 24 步,所以从第 60 个时间步开始,有了第一个有效输入,同时对于最后一个样本,要提前 24 个时间步结束。答案在 类的 len 方法调用中(重写的先用重写的方法)根据训练集、测试集划分应该是 676 行样本。理解为什么这么处理?
2025-03-03 22:52:05
229
原创 【读代码】关于日期的处理
dayofweek 是 python 内置库转换来。除以 23 表示第几个小时,一天中的第几个小时。dayofmonth 也是可以直接读出来的。很多的类,用字典,调用类,还有类的重命名。dayof year 也是直接读出来。奥,所以除以的数都比正常的小 1。dayofhour是读出来的。为什么都减去 0.5:中心化。这里的对于日期的编码还蛮有趣。为什么这里除以 11。
2025-03-03 22:14:10
164
原创 【TSP 文献阅读 03】TimesNet | TIMESNET: TEMPORAL 2D-VARIATION MODELINGFOR GENERAL TIME SERIES ANALYSIS
时间序列分析在广泛的应用中具有极其重要的作用,例如天气预报、异常检测和动作识别。本文专注于时间变化建模,这是众多分析任务的共同关键问题。基于对时间序列中多周期性的观察,我们将复杂的时间变化分解为多个周期内和周期间的变异。为了解决1D时间序列在表示能力上的局限性,我们通过将1D时间序列转换为基于多个周期的一组二维(2D)张量,将时间变化分析扩展到二维空间。这种转换可以将周期内和周期间的变异分别嵌入到二维张量的列和行中,使得二维变异可以被二维核轻松建模。
2025-03-03 14:37:08
994
原创 【TSF 文献阅读 02】Dlinear | Are Transformers Effective for Time Series Forecasting?
最近,基于Transformer的解决方案在长期时间序列预测(LTSF)任务中出现了激增。尽管过去几年性能不断增长,我们在这项工作中质疑这一研究方向的有效性。具体来说,Transformer可以说是提取长序列中元素之间语义相关性最成功的解决方案。然而,在时间序列建模中,我们需要提取有序连续点集中的时间关系。虽然使用位置编码和令牌将子序列嵌入到Transformer中有助于保留一些顺序信息,但置换不变的自注意力机制的本质不可避免地导致时间信息的丢失。
2025-03-02 17:21:23
259
原创 【TSF文献阅读 01】SegRNN: Segment Recurrent Neural Network for Long-Term Time Series Forecasting
循环神经网络(RNN)方法在处理超长回溯窗口和预测范围的长周期时间序列预测(LTSF)任务时,面临着诸多挑战。因此,在这一领域,主导地位已逐渐转向 Transformer、多层感知器(MLP)和卷积神经网络(CNN)方法。大量的循环迭代是 RNN 在 LTSF 中受限的根本原因。为了解决这些问题,我们提出了两种新策略,用于减少 RNN 在 LTSF 任务中的迭代次数:分段迭代和并行多步预测(PMF)。
2025-03-02 16:45:17
1009
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人