自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(297)
  • 收藏
  • 关注

原创 WITRAN_2DPSGMU_Encoder 类中,门机制

类中,门机制是核心部分,类似于 LSTM 或 GRU 的门控机制,用于控制隐藏状态的更新和输出。以下是对门机制的详细解析。这种门机制类似于 LSTM,但针对二维时间序列数据进行了扩展,分别更新行和列的隐藏状态,从而捕获时间序列的复杂依赖关系。

2025-04-14 20:49:01 427

原创 WITRAN_2DPSGMU_Encoder 类

类的主要逻辑和流程的图示化表示,帮助你更直观地理解代码的执行过程。通过以上图示化表示,可以更直观地理解。

2025-04-14 20:14:11 327

原创 【WITRAN 代码理解】

【代码】【WITRAN 代码理解】

2025-04-14 19:24:15 103

原创 【WITRAN 源码解读】

是通过滑动窗口填充生成的扩展张量,其内容包含了原始输入的所有信息,并在时间维度上产生了重叠。这种设计为模型提供了更多的上下文信息,帮助捕获时间序列的依赖关系。以下通过具体的例子和类比来帮助你理解四维张量的结构和操作。扩展后的张量可以看作是“时间序列的滑动窗口”,每一行的数据与其他行的数据在时间维度上产生了重叠。在时间维度上产生了重叠,为模型提供了更多的上下文信息,帮助捕获跨天的时间依赖关系。通过滑动窗口的方式,将原始输入扩展为形状。是通过滑动窗口的方式,将原始输入。通过滑动窗口的方式填充,扩展后的。

2025-04-14 17:10:35 441

原创 Autoformer解码器层的数据流程图

2025-04-14 17:07:52 214

原创 【统计学相关笔记】矩阵求导公式

矩阵求导公式。

2025-03-23 14:58:55 88

原创 Autoformer编码器的季节性与趋势处理流程

Autoformer通过这种精心设计的渐进式分解架构,使模型能够更好地处理时间序列数据,特别是在长期预测任务中表现出色。

2025-03-21 10:29:05 371

原创 Autoformer中序列分解的特殊性与意义

Autoformer中的序列分解(series_decomp)是该模型最具创新性的特点之一,它深刻体现了时间序列数据处理的特殊需求。

2025-03-21 10:18:51 304

原创 Autoformer中序列分解的特殊性与意义

Autoformer中的序列分解(series_decomp)是该模型最具创新性的特点之一,它深刻体现了时间序列数据处理的特殊需求。

2025-03-21 10:16:50 258

原创 【NeurIPS 2021】Autoformer、源码论文对照(下)

这一部分 是 自相关机制部分。

2025-03-19 21:46:43 152

原创 【统计学相关知识】极小充分统计量

一般来说,使用因子分解定义找到的充分统计量,直观地找到的,一般是极小充分统计量,但还是要遵循严格的证明。极小充分统计量不具有唯一性,具有不变性,线性映射仍然是极小充分统计量。定义、判别,计算上的定义。

2025-03-18 22:08:17 179

原创 【AutoFormer 源码理解】DecoderLayer

好的,让我们为类的forward方法中的每行代码添加注释,说明代码的目的和形状的变化。

2025-03-18 15:40:40 284

原创 【AutoFormer 源码理解】解码器结构

通过这些注释和解析,我们可以更清晰地理解。方法的工作原理和数据流动过程。

2025-03-18 14:53:45 215

原创 【AutoFormer 源码理解】注意力模块调用关系

这种设计允许模型有效捕获时间序列中的周期性模式和长期依赖关系,而不依赖传统的点积注意力机制。

2025-03-18 13:18:38 293

原创 【NeurIPS 2021】Autoformer、源码论文对照

因此,在提高效率的过程中,由于稀疏的逐点连接,这些模型会牺牲信息利用效率,从而导致时间序列长期预测的瓶颈。时间序列预测问题是指在给定过去长度为I的时间序列的情况下,预测未来最可能的长度为O的时间序列,记作input-I-predict-O。为了应对长期时间序列预测中复杂的时间模式,我们尝试引入分解的思想,这是时间序列分析中的标准方法。• 为应对长期未来复杂的时间模式,我们提出了Autoformer作为一种分解架构,并设计了内部的分解块,赋予深度预测模型逐步分解的内在能力。

2025-03-18 12:53:59 686 1

原创 【AutoFormer 源码理解】

这行代码根据embed_type。

2025-03-17 22:11:41 369

原创 【AutoFormer 源码理解】 conv1d

将输入张量从[B, L, D]转置为[B, D, L]

2025-03-17 21:12:03 270

原创 【论文复现 AutoFormer】

这种分解方法使 Autoformer 能够分别处理时间序列的不同频率成分,从而提高长序列预测的准确性。

2025-03-17 16:50:40 282

原创 【统计学相关笔记】2. 多元正态的Cochran定理

二次型矩阵和线性变换阵乘积=0即可。

2025-03-15 22:25:54 269

原创 【统计学相关笔记】抽样基本定理的证明

抽样基本定理的证明。

2025-03-15 22:02:44 228

原创 【SegRNN 源码理解】验证集和测试集

问题,验证集到底是什么?验证集和测试集不是一样的嘛,调用的函数都是一样的。

2025-03-15 19:35:45 375

原创 【SegRNN 源码理解】控制台输出信息

优化器会根据其内部的更新规则(如 Adam 算法)调整模型的权重和偏置。

2025-03-15 17:42:58 400

原创 【统计学相关笔记】Gamma 伽马分布

数字特征、特征函数,分布族。

2025-03-14 14:15:34 114

原创 【统计学相关笔记】有效估计与一致最小方差无偏估计 (UMVUE)

搬运: 有效估计与一致最小方差无偏估计 (UMVUE) 非常感谢。

2025-03-13 17:18:50 229

原创 【统计学相关笔记】经验分布函数

经验分布函数

2025-03-13 17:11:41 104

原创 【SegRNN 源码理解】【今天不水文系列】编码器部分理解

(15)样本 334-特征 1 :【512】【512】【512】【512】【512】(15)样本 334-特征 7 :【512】【512】【512】【512】【512】(0)样本 1-特征 1 :【512】【512】【512】【512】【512】(0)样本 1-特征 2 :【512】【512】【512】【512】【512】(0)样本 1-特征 7 :【512】【512】【512】【512】【512】(1)样本 6-特征 1 :【512】【512】【512】【512】【512】

2025-03-05 22:12:10 1050

原创 【SegRNN 源码理解】图示理解 forward的过程

这种设计使SegRNN能高效处理长序列预测问题,特别是在多变量时间序列中,不同特征具有不同时间模式的情况。

2025-03-05 17:57:03 663

原创 【SegRNN 源码理解】PMF的多步并行预测

用自己的话,593 个样本,随机选择了 16 个,这16 个样本的时间步并不一定是连续的,但是一个 batch 内部封装的 60 个时间步一定是连续的。我又有了一个新的问题,训练集大小是 593 个样本,怎么 batchsize=16,seqlen=60。

2025-03-05 17:39:57 542

原创 【SegRNN 源码理解】

特征,时间步,每个特征 60 个观察值,分成 5 份,每份 12 个时间步,嵌入到 512 维输入: x = [16, 7, 60] # [batch, feature, time]v 重塑v 嵌入。

2025-03-05 17:09:02 459

原创 【今天不水文系列】RevIN

为什么叫可逆实例标准化,实例标准化说完了,可逆是因为标准化以后还能还原,以为可以保留均值和方差,毕竟 谁跟谁构成一个 batch 是随机的,不能按照特定的顺序非得0-60batch,60-120batch,起始索引是随意选的,所以 batch 内部,每个特征标准化以后还要还原回去。大家好,今天我叫不水文,最近开始看时间序列了,据说3 次输出=10 次输入,有时间也想录个视频讲讲,但是在学校说话属实不方便,罢了。那理解了是什么,就要理解为什么要这么做,例子,以感冒为例,因为下图,不好懂得话可以看下下图。

2025-03-05 15:25:36 296

原创 【SegRNN 源码理解】self.revIN可逆实例标准化

也是一种标准化。

2025-03-05 14:54:33 1012

原创 【SegRNN代码理解之】dataloader是怎么封装的

batch_x.shape 标准化以后得原始特征 = 16*60*7 batch_y.shape = [16, 24, 7];batch_x_mark时间戳特征=[16, 60, 4];因为时间序列样本是样本,时间步是时间步,是怎么做到时间步的滑动窗口、重叠的时间步的滑动窗口和时间步重叠。

2025-03-04 11:03:25 972

原创 【SegRNN 代码理解】之为什么 train输出有 593 条

输入要有 60 个,预测 24 步,所以从第 60 个时间步开始,有了第一个有效输入,同时对于最后一个样本,要提前 24 个时间步结束。答案在 类的 len 方法调用中(重写的先用重写的方法)根据训练集、测试集划分应该是 676 行样本。理解为什么这么处理?

2025-03-03 22:52:05 229

原创 【SegRNN代码复现&理解】日期的处理

终于把这里日期的处理看明白了。

2025-03-03 22:19:23 172

原创 【读代码】关于日期的处理

dayofweek 是 python 内置库转换来。除以 23 表示第几个小时,一天中的第几个小时。dayofmonth 也是可以直接读出来的。很多的类,用字典,调用类,还有类的重命名。dayof year 也是直接读出来。奥,所以除以的数都比正常的小 1。dayofhour是读出来的。为什么都减去 0.5:中心化。这里的对于日期的编码还蛮有趣。为什么这里除以 11。

2025-03-03 22:14:10 164

原创 【TSP 文献阅读 03】TimesNet | TIMESNET: TEMPORAL 2D-VARIATION MODELINGFOR GENERAL TIME SERIES ANALYSIS

时间序列分析在广泛的应用中具有极其重要的作用,例如天气预报、异常检测和动作识别。本文专注于时间变化建模,这是众多分析任务的共同关键问题。基于对时间序列中多周期性的观察,我们将复杂的时间变化分解为多个周期内和周期间的变异。为了解决1D时间序列在表示能力上的局限性,我们通过将1D时间序列转换为基于多个周期的一组二维(2D)张量,将时间变化分析扩展到二维空间。这种转换可以将周期内和周期间的变异分别嵌入到二维张量的列和行中,使得二维变异可以被二维核轻松建模。

2025-03-03 14:37:08 994

原创 时间序列数据:训练集、验证集、测试集划分

数据集选择

2025-03-02 20:36:46 166

原创 关于时间序列预测

开始搞时间序列预测了,但是说实话,我整个人都是蒙的多变量预测多变量单变量预测单变量多变量预测单变量。

2025-03-02 19:49:31 189

原创 【TSF 文献阅读 02】Dlinear | Are Transformers Effective for Time Series Forecasting?

最近,基于Transformer的解决方案在长期时间序列预测(LTSF)任务中出现了激增。尽管过去几年性能不断增长,我们在这项工作中质疑这一研究方向的有效性。具体来说,Transformer可以说是提取长序列中元素之间语义相关性最成功的解决方案。然而,在时间序列建模中,我们需要提取有序连续点集中的时间关系。虽然使用位置编码和令牌将子序列嵌入到Transformer中有助于保留一些顺序信息,但置换不变的自注意力机制的本质不可避免地导致时间信息的丢失。

2025-03-02 17:21:23 259

原创 【TSF文献阅读 01】SegRNN: Segment Recurrent Neural Network for Long-Term Time Series Forecasting

循环神经网络(RNN)方法在处理超长回溯窗口和预测范围的长周期时间序列预测(LTSF)任务时,面临着诸多挑战。因此,在这一领域,主导地位已逐渐转向 Transformer、多层感知器(MLP)和卷积神经网络(CNN)方法。大量的循环迭代是 RNN 在 LTSF 中受限的根本原因。为了解决这些问题,我们提出了两种新策略,用于减少 RNN 在 LTSF 任务中的迭代次数:分段迭代和并行多步预测(PMF)。

2025-03-02 16:45:17 1009

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除