自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(24)
  • 收藏
  • 关注

原创 KAN+iTransformer时间序列预测模型

基于Transformer模型的时序预测架构通常将同一时间步的不同变量编码成一个统一的多维temporal token,并通过注意力机制来建模不同时间步之间的时序相关性。然而,近年来线性时序预测模型重新崛起,展现出比Transformer模型更优的效果,促使人们反思当前基于Transformer的时序预测架构的一些局限性:对于同一时间步的数据点,变量之间可能具有不同的物理意义,采集时间可能不一致,且尺度差异显著。

2025-04-07 20:04:15 279

原创 STL+FAN+TCN+informer时间序列预测模型

本文尝试将STL+FAN+TCN+informer相结合进行时间序列的预测,作为一个创新性模型。效果非常好,发个3-4区以及毕设工作量没问题,源码在最后!!!

2025-02-21 14:42:06 1006

原创 STL(时序分解)+itransformer+timesnet时间序列预测

本文尝试将STL,itransformer,timesnet相结合进行时间序列的预测,作为一个创新性模型。效果非常好,源码在最后!!!

2025-02-04 17:29:03 1304 1

原创 python常规时间序列预测模型全家桶

CNN是深度学习中最常用的模型之一,主要用于处理具有局部结构信息的数据(如图像)。它通过卷积操作提取输入数据中的局部特征,并通过层叠的方式逐层提取更高层次的特征。在时间序列预测中,CNN可以用于捕捉序列数据中的局部模式,如周期性模式或趋势。

2024-12-27 18:44:52 1206

原创 XLSTM+informer时间序列预测模型

XLSTM是lstm原班人马在2024年5月发布的模型,本文将xlstm和informer进行相应的结合进行时间序列的预测。源码在最后。

2024-12-16 15:23:10 2091 1

原创 基于Pyraformer的时间序列预测模型

在本文中,我们提出了一种新的基于金字塔注意力的Transformer(Pyraformer),以弥补捕获长距离依赖和实现低时间和空间复杂性之间的差距。具体来说,我们通过在金字塔图中传递基于注意力的信息来开发金字塔注意力机制,如图1(d)所示。该图中的边可以分为两组:尺度间连接和尺度内连接。尺度间的连接构建了原始序列的多分辨率表示:最细尺度上的节点对应于原始时间序列中的时间点(例如,每小时观测值),而较粗尺度下的节点代表分辨率较低的特征(例如,每日、每周和每月模式)。

2024-12-15 16:56:32 1038

原创 LSTM+改进的itransformer时间序列预测模型代码

将这些变量强行编码为统一的temporal token,不再区分不同的通道(channels),可能会导致多变量间的相关性被削弱,从而无法有效学习基于变量的高效表征,不适用于多变量时序预测任务。iTransformer将不同的变量独立编码为各自的token,通过注意力机制来建模变量之间的相关性,同时通过前馈网络建模变量的时序相关性,从而获取更优的时序表征。数据集都可以,只要是时间序列格式,不限领域,类似功率预测,风电光伏预测,负荷预测,流量预测,浓度预测,机械领域预测等等各种时间序列直接预测。

2024-12-07 22:04:44 3215 4

原创 timesnet+timemixer时间序列预测模型

时间序列分析被广泛应用于众多领域中,如天气预报中预测气象要素的未来变化、数据质控时填补缺失值、工业生产中监控设备状态、医疗诊断时分析心跳曲线等。不同于自然语言、视频等序列数据,时间序列中单个时刻仅保存了一些标量,其关键信息更多地被蕴含在时序变化(Temporal Variation)中。因此,。本文即围绕时序变化建模展开,设计提出了时序基础模型TimesNet,。近年来,深度模型被广泛用于时序分析任务中,例如循环神经网络(RNN)、时序卷积网络(TCN)和变换器网络(Transformer)。

2024-12-04 18:40:08 1821

原创 基于MAmba的时间序列预测模型以及基于曼巴注意力机制的改进itransformer模型

摘要由于捕获长期依赖性、实现线性可扩展性和保持计算效率的困难,长期时间序列预测仍然具有挑战性。推出了 TimeMachine,这是一个创新模型,它利用 Mamba(一种状态空间模型)来捕获多元时间序列数据中的长期依赖性,同时保持线性可扩展性和较小的内存占用。

2024-11-22 17:53:51 1864

原创 基于傅里叶卷积的itransformer时间序列预测模型

基于Transformer模型的时序预测架构通常将同一时间步的不同变量编码成一个统一的多维temporal token,并通过注意力机制来建模不同时间步之间的时序相关性。然而,近年来线性时序预测模型重新崛起,展现出比Transformer模型更优的效果,促使人们反思当前基于Transformer的时序预测架构的一些局限性:对于同一时间步的数据点,变量之间可能具有不同的物理意义,采集时间可能不一致,且尺度差异显著。

2024-11-20 15:13:33 1280

原创 时间空间频域融合的Crossformer时间序列预测项目

本文将时间空间频域融合进Corssformer模型中,进行创新,优势如下。:Corssformer通过多尺度机制捕获时间序列中的长期和短期依赖关系,适合具有复杂模式和多尺度特性的时间序列数据。:在时间序列中,Corssformer能将时间和空间维度结合起来,捕捉多变量序列之间的相互关系,使其在多维度场景中更具优势,如风电或光伏等多传感器系统的预测。:Corssformer在频域上提取特征,使其能够识别数据中的周期性和频率成分,有效减少噪声对预测的干扰,同时增强对周期性和趋势性特征的建模能力。

2024-11-12 22:15:12 1274

原创 改进图卷积+informer时间序列预测代码

本代码尝试将它转移用到时间序列中,创新思维的三维转二维,利用部分卷积进行特征提取,将提取的结果放入informer或者tranformer进行预测,预测还不错(适用的领域效果比二维差一点,但是这个思路用的人几乎没有人用!创新点很强)同时证实了引入图卷积的可行性。

2024-11-11 14:22:36 1008

原创 Transformer+KAN系列时间序列预测代码

前段时间,来自 MIT 等机构的研究者提出了一种非常有潜力的替代方法 ——KAN。该方法在准确性和可解释性方面表现优于 MLP。而且,它能以非常少的参数量胜过以更大参数量运行的 MLP。KAN的发布,引起了AI社区大量的关注与讨论,同时也伴随很大的争议。而此类研究,又有了新的进展。最近,来自新加坡国立大学的研究者提出了 Kolmogorov–Arnold Transformer(KAT),用 Kolmogorov-Arnold Network(KAN)层取代 MLP 层,以增强模型的表达能力和性能。

2024-11-02 17:02:54 1322

原创 WTC(2024新小波降噪)+LSTM+改进通道注意力时间序列代码

本文尝试将将常规的CNN-LSTM-注意力进行替换为新的模块,创新性很强。

2024-10-31 14:00:35 1541

原创 XLSTM+transformer时间序列预测代码

xlstm+transformer时间序列预测代码_哔哩哔哩_bilibili。

2024-10-30 16:28:38 1685

原创 ISSA+CNN+BIGRU+attention时间序列预测代码

ISSA+CNN+BIGRU+attention时间序列代码_哔哩哔哩_bilibili

2024-10-30 13:27:04 1135

原创 1.小波降噪CEEMDAN+BIGRU+GSA+informer+CN多尺度融合时间序列代码

小波降噪CEEMDAN+BIGRU+GSA+informer+CN多尺度融合应用于时间序列预测、金融数据分析、气象预测、异常检测等领域,特别是在数据表现出明显的非平稳性时,能够显著提升模型性能。做创新点非常够用。

2024-10-29 16:50:20 994

原创 基于小波降噪CEEMDAN+LSTM+FECAM+NTSformer时间序列代码

小波降噪CEEMDAN+LSTM+FECAM+NTSformer时间序列代码应用于时间序列预测、金融数据分析、气象预测、异常检测等领域,特别是在数据表现出明显的非平稳性时,能够显著提升模型性能。做创新点非常够用。

2024-10-28 14:45:15 1587

原创 TCN+itransformer时间序列预测项目源码

基于Transformer模型的时序预测架构通常将同一时间步的不同变量编码成一个统一的多维temporal token,并通过注意力机制来建模不同时间步之间的时序相关性。然而,近年来线性时序预测模型重新崛起,展现出比Transformer模型更优的效果,促使人们反思当前基于Transformer的时序预测架构的一些局限性:对于同一时间步的数据点,变量之间可能具有不同的物理意义,采集时间可能不一致,且尺度差异显著。

2024-09-07 10:58:24 2229 3

原创 深度学习时间序列论文中常用的对比实验代码(python)

这里是常用的一些代码自己整理的100%都能运行。

2024-09-04 11:04:03 1409

原创 SSA(麻雀优化算法)+CNN+LSTM时间序列预测算法(python代码)

SSA是一种新兴的群体智能优化算法,模拟麻雀觅食行为。麻雀群体中的“发现者”负责寻找食物,并将信息传递给“追随者”,后者根据这一信息进行觅食。SSA通过这种合作机制寻找最优解。SSA在优化问题中可以视为一种元启发式算法,擅长在复杂搜索空间中找到全局最优解,而不是陷入局部最优。

2024-09-03 21:31:22 1983 1

原创 LSTM+transformer+稀疏注意力机制(ASSA)时间序列预测(pytorch框架)

transformer,LSTM,ASSA注意力首发原创!纯个人手打代码,自己研究的创新点,超级新。可以发刊,先发先的,高精度代码。需知:好的创新性模型可以事半功倍。目前太多流水paper,都是旧模型,老师已经审美疲劳,很难发好一点的刊,这种模型很新,让paper审核老师眼睛一亮,老师就会觉得你有水平,关注顶会前沿热点,非常好中稿。上限下限都非常高,适合高等级的同学(继续优化)和没有经验的小白(直接用就行了)。python代码,pytorch架构。

2024-09-03 20:42:57 3418 2

原创 LSTM+informer

急需毕业,论文创新点,小论文,大论文的同学可以直接使用。或者需要缝合模型,设计模型可以催更联系。

2024-09-02 22:30:45 2390 1

原创 informer+TCN+通道注意力机制+SSA时间序列模型预测

Informer 是一种用于时间序列预测的深度学习模型,特别适用于长序列的时间序列数据。它是基于 Transformer 结构的一种改进,主要解决了传统 Transformer 在处理长序列时计算复杂度高的问题。

2024-08-23 17:47:21 2432

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除