- 博客(24)
- 收藏
- 关注
原创 用未来数据可以预测过去数据吗
在某些情况下(例如物理系统的可逆性),反向推断过去可能有效,但通常时间序列带有噪声、外部影响和不可逆的随机过程,使得反向预测难以实现。在股票市场中,过去的趋势可能提供了对未来的启发,但未来的趋势往往包含未知的外部冲击,无法可靠地反推过去。为什么时间序列预测都是使用历史数据预测未来数据,却不能使用反转的未来数据来预测过去数据呢。),如果未来数据能揭示某种模式,可能可以用于重建过去的状态。在一些信号处理中,可以用未来的数据进行插值或重构,比如。你可以根据过去的天气模式预测未来的天气,但。
2025-04-03 15:35:32
385
原创 残差连接使得预测模型 指标下降
在sota预测模型基础上,新增 一个残差模型,使用post_Layernorm,结果发现在测试集上预测的指标下降了。
2025-03-06 15:30:32
99
原创 盘点patchtst,segrnn,dsformer,在训练集上预测差,为什么在测试集上预测很好
patchtst,segrnn,dsformer,在训练集上预测差,为什么在测试集上预测很好,请大佬解疑。
2025-02-17 11:41:37
87
原创 Rolling Forecasting和Recursive Forecasting区别
1. Rolling Forecasting基本原理:逐步滑动窗口预测: 模型基于固定长度的历史窗口(如最近 ttt 个时间步的数据)来预测下一个时间步(t+1t+1t+1)。 每次预测后,窗口向前滑动一个时间步,丢弃最早的点,加入最新的预测结果作为历史窗口的一部分。 流程:确定一个固定长度的历史窗口(例如过去 kkk 个时间步)。 用这 kkk 个时间步的数据训练模型并预测下一个时间步的数据。 滑动窗口:将窗口向前移动,使用新的窗口预测下一个时间步。 重复此过程,直到完成预测
2024-12-09 22:34:40
568
原创 From Fourier to Koopman: Spectral Methods for Long-term Time Series Prediction
""""""'''type: int''''''Parameters----------Returns-------None.'''else:ffts = 0loss = 0o2.step()'''Parameters----------Returns-------None.''''''Parameters----------Returns-------
2024-12-06 21:06:54
557
原创 Out-of-Sample Forecasting
Out-of-Sample Forecasting 是指使用训练好的模型来预测未来的时间序列数据,这些数据没有参与到训练中(即是样本外的),尤其是需要预测一段未来时间的数据。input_seq = np.roll(input_seq, -1, axis=1) # 移动输入序列。input_seq[0, -1, 0] = pred # 用新的预测值更新最后一个时间步。input_seq = test_X[0:1] # 用测试数据的第一个序列作为初始输入。# 生成未来的真实数据。# 生成正弦序列数据。
2024-12-06 20:35:59
369
原创 LSTM预测代码
model.add(tf.keras.layers.Dense(1)) # 输出层。HIDDEN_SIZE = 200 # LSTM中隐藏节点的个数。train_data_len = 10000 # 训练数据个数。TIMESTEPS = 10 # 循环神经网络的训练序列长度。test_data_len = 1000 # 测试数据个数。NUM_LAYERS = 5 # LSTM的层数。period_sin = 0.01 # 采样间隔。
2024-12-06 20:28:10
432
原创 去噪评价指标ENL, SSIM, PSNR,SNR,EPI.zip_EPI_EPI有什么特点
snr = 10 * np.log10(signal_power / (noise_power + 1e-10)) # 添加小值以避免除零。enl = (signal_mean ** 2) / (noise_std ** 2 + 1e-10) # 添加小值以避免除零。EPI 用于衡量去噪后图像的边缘保留程度,可以通过边缘检测算法(如 Sobel 算子)计算。ENL 用于评估图像的噪声特性,可以通过信号均值的平方除以噪声方差来计算。SSIM 是一种衡量两幅图像相似度的指标,可以通过。
2024-09-26 22:21:51
1226
原创 小样本中,训练集和验证集的loss和acc曲线如何变得平缓
在小样本情况下,训练集和验证集的损失(loss)及准确率(accuracy)曲线可能会表现得较为波动,因为样本数量较少,模型的训练过程可能会受限于数据的偶然性和噪声。
2024-09-01 20:07:20
565
原创 验证集 loss突然比训练集 loss 低,但此时验证集acc曲线突然比训练集的高,这是什么原因
如果训练集和验证集的样本分布存在差异,可能会导致这种情况。例如,验证集可能包含较容易分类的样本,而训练集可能包含较困难的样本,导致验证集的损失低于训练集的损失,而准确率则较高。:在训练过程中,某些超参数的调整(如学习率、批量大小)可能会导致模型在验证集上的表现与训练集不同。:如果在训练过程中使用了大量的验证集反馈(如模型选择基于验证集的性能),可能会导致模型在验证集上的表现优于训练集。:如果验证集中的样本分布较特殊,或验证集的数据具有某种偶然特征,可能会导致在某些情况下模型在验证集上的表现异常好。
2024-09-01 19:55:12
678
原创 训练集 验证集loss曲线已经平稳,但训练集 验证集acc曲线 一直波动,不平稳
1. 训练和验证集的不平衡描述:训练集和验证集的类别分布不均衡可能导致精度曲线的波动。例如,如果某些类别在验证集中出现得很少,模型可能对这些类别的精度波动较大。 解决方案: 类别平衡:尝试通过过采样、欠采样或类别权重调整来平衡类别分布。 数据增强:通过数据增强增加少数类的样本量。 2. 模型的不稳定性描述:模型的参数设置、学习率等可能导致训练过程中的不稳定性。这种不稳定性会反映在精度曲线的波动上。 解决方案: 调整学习率:尝试使用学习率调度器或调整学习率的值。过高的学习率可能导致训练
2024-08-30 22:31:37
623
原创 验证集loss曲线始终高于训练集曲线的原因
验证集损失(loss)曲线通常高于训练集损失曲线的原因有多种,这反映了模型在训练数据和未见过的数据上的表现差异。
2024-08-30 22:27:12
1581
原创 验证集准确率先波动 再上升最后高于训练集准确率 的原因
这种情况下,正则化方法减弱了模型的复杂性,使得它在训练集上的表现略差,但在验证集上表现得更好,因为它能够避免过拟合并更好地适应验证数据。:模型在训练集上没有充分收敛可能是学习率、正则化等参数的影响,导致模型对训练数据的拟合不足,验证集准确率因而表现得更好。:验证集小导致的随机性会引起较大的波动,但当模型在验证集中逐渐表现出更稳定的性能时,准确率可能超过训练集。:模型在训练中可能从早期的过拟合模式转向更加泛化的模式,导致验证集准确率逐步上升并超过训练集。
2024-08-22 20:08:48
657
1
原创 验证集(测试集)准确率高于训练集准确率的原因
验证集(测试集)准确率高于训练集准确率的现象并不常见,但确实可能发生,通常意味着数据或模型存在一些不寻常的情况。
2024-08-22 19:55:44
2370
原创 交叉验证的训练集和验证集loss曲线下降趋于稳定,而精度曲线上下波动,怎么减少精度曲线上下波动
交叉验证时训练集和验证集的 loss 曲线趋于稳定,说明模型的损失已经收敛。
2024-08-22 16:26:58
635
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人