- 博客(28)
- 收藏
- 关注
原创 DGCN+informer分类预测模型
本文提出了一种基于动态图卷积增强的 Informer 模型(Dynamic Graph Convolution Enhanced Informer),用于多变量时间序列分类任务。该模型在经典 Informer 架构的基础上,引入了动态图卷积机制,以自适应地捕捉变量之间的时变依赖关系,显著提升了对复杂时间序列结构的建模能力。目前大多数人都是用lstm,cnn-lstm,transformer类模型做分类,太老了!代码还可以进一步继续改进,稳3-4区和北核,冲1-2区。
2025-10-16 16:03:52
633
原创 WPMixer时间序列预测模型2025年最新
本文采用一个风力发电数据集进行实验(数据集格式为时间列+特征列+要预测的列)代码能够实现的功能:1.多变量输入,单变量输出2.多时间步预测,单时间步预测3.R方,MAE,MSE MAPE对比图,误差4.将结果保存下来供后续处理5.代码自带数据,一键运行,csv,xlsx文件读取数据实验结果WPMixer通过处理时间和频率域信息来提高时间序列预测的性能,尤其在处理实际数据中的突发峰值和下降时具有显著优势。
2025-10-15 14:20:54
1151
原创 WOA+LSTM+itransformer时间序列预测模型
是一种结合了和的复合模型,主要应用于时间序列预测任务。该模型通过不同算法的结合,充分发挥各自的优势,能够在处理复杂的时间序列问题时提供更为精确和稳定的预测。接下来,我们可以分几个方面来看这个模型的优势和适用领域。:WOA是一种启发式优化算法,它模拟了鲸鱼捕食行为,具有较强的全局搜索能力。能够避免局部最优解的困境,寻找更适合模型的参数配置,尤其适合高维度和非线性问题。:在LSTM和Transformer模型中,WOA可以有效优化超参数,如学习率、层数、激活函数等,进一步提高预测性能。
2025-09-09 16:15:23
964
原创 Temporal Fusion Transformer(TFT)扩散模型时间序列预测模型
Temporal Fusion Transformer(TFT)模型是一种专为时间序列预测设计的高级深度学习模型。它结合了神经网络的多种机制处理时间序列数据中的复杂关系。TFT 由 Lim et al. 于 2019年提出,。
2025-06-03 15:48:27
1674
原创 KAN+iTransformer时间序列预测模型
基于Transformer模型的时序预测架构通常将同一时间步的不同变量编码成一个统一的多维temporal token,并通过注意力机制来建模不同时间步之间的时序相关性。然而,近年来线性时序预测模型重新崛起,展现出比Transformer模型更优的效果,促使人们反思当前基于Transformer的时序预测架构的一些局限性:对于同一时间步的数据点,变量之间可能具有不同的物理意义,采集时间可能不一致,且尺度差异显著。
2025-04-07 20:04:15
763
原创 STL+FAN+TCN+informer时间序列预测模型
本文尝试将STL+FAN+TCN+informer相结合进行时间序列的预测,作为一个创新性模型。效果非常好,发个3-4区以及毕设工作量没问题,源码在最后!!!
2025-02-21 14:42:06
1610
原创 STL(时序分解)+itransformer+timesnet时间序列预测
本文尝试将STL,itransformer,timesnet相结合进行时间序列的预测,作为一个创新性模型。效果非常好,源码在最后!!!
2025-02-04 17:29:03
2227
1
原创 python常规时间序列预测模型全家桶
CNN是深度学习中最常用的模型之一,主要用于处理具有局部结构信息的数据(如图像)。它通过卷积操作提取输入数据中的局部特征,并通过层叠的方式逐层提取更高层次的特征。在时间序列预测中,CNN可以用于捕捉序列数据中的局部模式,如周期性模式或趋势。
2024-12-27 18:44:52
1401
原创 XLSTM+informer时间序列预测模型
XLSTM是lstm原班人马在2024年5月发布的模型,本文将xlstm和informer进行相应的结合进行时间序列的预测。源码在最后。
2024-12-16 15:23:10
2863
1
原创 基于Pyraformer的时间序列预测模型
在本文中,我们提出了一种新的基于金字塔注意力的Transformer(Pyraformer),以弥补捕获长距离依赖和实现低时间和空间复杂性之间的差距。具体来说,我们通过在金字塔图中传递基于注意力的信息来开发金字塔注意力机制,如图1(d)所示。该图中的边可以分为两组:尺度间连接和尺度内连接。尺度间的连接构建了原始序列的多分辨率表示:最细尺度上的节点对应于原始时间序列中的时间点(例如,每小时观测值),而较粗尺度下的节点代表分辨率较低的特征(例如,每日、每周和每月模式)。
2024-12-15 16:56:32
1363
原创 LSTM+改进的itransformer时间序列预测模型代码
将这些变量强行编码为统一的temporal token,不再区分不同的通道(channels),可能会导致多变量间的相关性被削弱,从而无法有效学习基于变量的高效表征,不适用于多变量时序预测任务。iTransformer将不同的变量独立编码为各自的token,通过注意力机制来建模变量之间的相关性,同时通过前馈网络建模变量的时序相关性,从而获取更优的时序表征。数据集都可以,只要是时间序列格式,不限领域,类似功率预测,风电光伏预测,负荷预测,流量预测,浓度预测,机械领域预测等等各种时间序列直接预测。
2024-12-07 22:04:44
5654
4
原创 timesnet+timemixer时间序列预测模型
时间序列分析被广泛应用于众多领域中,如天气预报中预测气象要素的未来变化、数据质控时填补缺失值、工业生产中监控设备状态、医疗诊断时分析心跳曲线等。不同于自然语言、视频等序列数据,时间序列中单个时刻仅保存了一些标量,其关键信息更多地被蕴含在时序变化(Temporal Variation)中。因此,。本文即围绕时序变化建模展开,设计提出了时序基础模型TimesNet,。近年来,深度模型被广泛用于时序分析任务中,例如循环神经网络(RNN)、时序卷积网络(TCN)和变换器网络(Transformer)。
2024-12-04 18:40:08
2735
原创 基于MAmba的时间序列预测模型以及基于曼巴注意力机制的改进itransformer模型
摘要由于捕获长期依赖性、实现线性可扩展性和保持计算效率的困难,长期时间序列预测仍然具有挑战性。推出了 TimeMachine,这是一个创新模型,它利用 Mamba(一种状态空间模型)来捕获多元时间序列数据中的长期依赖性,同时保持线性可扩展性和较小的内存占用。
2024-11-22 17:53:51
2840
原创 基于傅里叶卷积的itransformer时间序列预测模型
基于Transformer模型的时序预测架构通常将同一时间步的不同变量编码成一个统一的多维temporal token,并通过注意力机制来建模不同时间步之间的时序相关性。然而,近年来线性时序预测模型重新崛起,展现出比Transformer模型更优的效果,促使人们反思当前基于Transformer的时序预测架构的一些局限性:对于同一时间步的数据点,变量之间可能具有不同的物理意义,采集时间可能不一致,且尺度差异显著。
2024-11-20 15:13:33
1694
原创 时间空间频域融合的Crossformer时间序列预测项目
本文将时间空间频域融合进Corssformer模型中,进行创新,优势如下。:Corssformer通过多尺度机制捕获时间序列中的长期和短期依赖关系,适合具有复杂模式和多尺度特性的时间序列数据。:在时间序列中,Corssformer能将时间和空间维度结合起来,捕捉多变量序列之间的相互关系,使其在多维度场景中更具优势,如风电或光伏等多传感器系统的预测。:Corssformer在频域上提取特征,使其能够识别数据中的周期性和频率成分,有效减少噪声对预测的干扰,同时增强对周期性和趋势性特征的建模能力。
2024-11-12 22:15:12
1747
原创 改进图卷积+informer时间序列预测代码
本代码尝试将它转移用到时间序列中,创新思维的三维转二维,利用部分卷积进行特征提取,将提取的结果放入informer或者tranformer进行预测,预测还不错(适用的领域效果比二维差一点,但是这个思路用的人几乎没有人用!创新点很强)同时证实了引入图卷积的可行性。
2024-11-11 14:22:36
1331
原创 Transformer+KAN系列时间序列预测代码
前段时间,来自 MIT 等机构的研究者提出了一种非常有潜力的替代方法 ——KAN。该方法在准确性和可解释性方面表现优于 MLP。而且,它能以非常少的参数量胜过以更大参数量运行的 MLP。KAN的发布,引起了AI社区大量的关注与讨论,同时也伴随很大的争议。而此类研究,又有了新的进展。最近,来自新加坡国立大学的研究者提出了 Kolmogorov–Arnold Transformer(KAT),用 Kolmogorov-Arnold Network(KAN)层取代 MLP 层,以增强模型的表达能力和性能。
2024-11-02 17:02:54
1639
原创 ISSA+CNN+BIGRU+attention时间序列预测代码
ISSA+CNN+BIGRU+attention时间序列代码_哔哩哔哩_bilibili
2024-10-30 13:27:04
1259
原创 1.小波降噪CEEMDAN+BIGRU+GSA+informer+CN多尺度融合时间序列代码
小波降噪CEEMDAN+BIGRU+GSA+informer+CN多尺度融合应用于时间序列预测、金融数据分析、气象预测、异常检测等领域,特别是在数据表现出明显的非平稳性时,能够显著提升模型性能。做创新点非常够用。
2024-10-29 16:50:20
1218
原创 基于小波降噪CEEMDAN+LSTM+FECAM+NTSformer时间序列代码
小波降噪CEEMDAN+LSTM+FECAM+NTSformer时间序列代码应用于时间序列预测、金融数据分析、气象预测、异常检测等领域,特别是在数据表现出明显的非平稳性时,能够显著提升模型性能。做创新点非常够用。
2024-10-28 14:45:15
1897
原创 TCN+itransformer时间序列预测项目源码
基于Transformer模型的时序预测架构通常将同一时间步的不同变量编码成一个统一的多维temporal token,并通过注意力机制来建模不同时间步之间的时序相关性。然而,近年来线性时序预测模型重新崛起,展现出比Transformer模型更优的效果,促使人们反思当前基于Transformer的时序预测架构的一些局限性:对于同一时间步的数据点,变量之间可能具有不同的物理意义,采集时间可能不一致,且尺度差异显著。
2024-09-07 10:58:24
3233
4
原创 SSA(麻雀优化算法)+CNN+LSTM时间序列预测算法(python代码)
SSA是一种新兴的群体智能优化算法,模拟麻雀觅食行为。麻雀群体中的“发现者”负责寻找食物,并将信息传递给“追随者”,后者根据这一信息进行觅食。SSA通过这种合作机制寻找最优解。SSA在优化问题中可以视为一种元启发式算法,擅长在复杂搜索空间中找到全局最优解,而不是陷入局部最优。
2024-09-03 21:31:22
2675
1
原创 LSTM+transformer+稀疏注意力机制(ASSA)时间序列预测(pytorch框架)
transformer,LSTM,ASSA注意力首发原创!纯个人手打代码,自己研究的创新点,超级新。可以发刊,先发先的,高精度代码。需知:好的创新性模型可以事半功倍。目前太多流水paper,都是旧模型,老师已经审美疲劳,很难发好一点的刊,这种模型很新,让paper审核老师眼睛一亮,老师就会觉得你有水平,关注顶会前沿热点,非常好中稿。上限下限都非常高,适合高等级的同学(继续优化)和没有经验的小白(直接用就行了)。python代码,pytorch架构。
2024-09-03 20:42:57
4705
2
原创 informer+TCN+通道注意力机制+SSA时间序列模型预测
Informer 是一种用于时间序列预测的深度学习模型,特别适用于长序列的时间序列数据。它是基于 Transformer 结构的一种改进,主要解决了传统 Transformer 在处理长序列时计算复杂度高的问题。
2024-08-23 17:47:21
3478
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅