LSTM和注意力机制相结合!创新点轻松出!

部署运行你感兴趣的模型镜像

LSTM(长短期记忆网络)和注意力机制(Attention Mechanism)是深度学习中的两种重要技术,它们可以相互结合以提高模型的性能,尤其是在处理序列数据时。下面是它们之间的关系和如何协同工作

今天就这两种技术整理出了论文+开源代码,以下是精选部分论文

  更多论文料可以关注AI科技探寻,发送:111  领取更多[论文+开源码】 

论文1

Recognition of Distracted Driving Behavior Based on Improved Bi-LSTM Model and Attention Mechanism 基于改进的Bi-LSTM模型和注意力机制的分心驾驶行为识别

方法:

  1. ID-CNN(改进的Dilated Convolutional Neural Networks):使用扩张卷积模型高效提取特征,减少参数数量,增强多尺度特征提取能力,扩大感受野。

  2. 集成Bi-LSTM模型:将注意力机制集成到Bi-LSTM模型中,提高解决驾驶行为分类问题的有效性。

  3. 注意力机制:通过计算Bi-LSTM模型中中间状态和最终状态之间的相关性,获得每个时刻的注意力权重概率分布,减少信息冗余,有效保留有用信息。

  4. 图像特征向量增强:进一步改善图像分类任务的准确性

创新点:

  1. 扩张卷积和注意力机制的结合:通过结合扩张卷积和注意力机制,模型在StateFarm数据集上实现了95.8367%的准确率,在Drive&Act-Distracted数据集上实现了97.8911%的准确率,显著提高了驾驶行为识别的准确性。

  2. 多尺度特征提取:结合Bi-LSTM模型与扩张卷积,实现了多尺度特征提取和感知,更适合复杂背景和多尺度目标的图像识别任务。

  3. 信息冗余降低:注意力机制的引入使模型能够专注于相关信息,忽略不相关信息,增强了模型处理序列数据时的泛化能力。

  4. 特征表达能力提升:通过在Bi-LSTM模型结构中引入注意力机制,计算Bi-LSTM模型状态之间的不同权重,显著提升了模型的特征表达能力。

    图片

论文2

Seq2Seq-LSTM With Attention for Electricity Load Forecasting in BrazilSeq2

Seq-LSTM与注意力机制结合用于巴西电力负荷预测

方法:

  1. Seq2Seq时间序列数据:考虑序列到序列(Seq2Seq)的时间序列数据,评估多个输入序列以执行预测。

  2. LSTM网络:使用长短期记忆(LSTM)网络处理序列数据。

  3. 注意力机制:在Seq2Seq数据中实现注意力机制,使用多个相关信号进行预测,增强数据可用时的预测能力。

创新点:

  1. Seq2Seq数据的优势:Seq2Seq时间序列数据允许评估多个输入序列以执行预测,提高了预测的准确性和灵活性。

  2. 长距离依赖捕捉:注意力机制能够捕捉时间序列数据中的长距离依赖,使模型能够更好地理解数据中的时间动态。

  3. 混合LSTM网络:提出的Seq2Seq-LSTM结合注意力机制的模型在性能上超越了其他已建立的模型,平均绝对误差(MAE)为0.3027,显示出对实际应用的潜力。

    图片

论文3

Short‑term photovoltaic energy generation for solar powered high efciency irrigation systems using LSTM with Spatio‑temporal attention mechanism

使用带有时空注意力机制的LSTM进行短期光伏发电以支持太阳能驱动的高效灌溉系统

方法:

  1. 时空注意力块:提出了基于长短期记忆(LSTM)模型的空间和时间注意力块,用于预测高效灌溉系统的光伏输出。

  2. 数据预处理:通过管道对输入数据进行预处理,包括归一化、特征提取和分类。

  3. LSTM网络结构:设计了一个包含20层LSTM的架构,以及ReLU层、全连接层、Dropout层和分类层。

  4. 时空注意力机制:通过在LSTM模型中引入时空注意力机制,模型能够在不同时间步长关注特定的空间区域,动态调整注意力以捕捉复杂的时间模式。

创新点:

  1. 时空注意力机制:通过结合空间和时间注意力,模型能够更准确地预测光伏系统的输出,相比于简单的LSTM网络,性能有显著提升。

  2. 预测精度提升:与现有的机器学习(ML)和基本的LSTM网络相比,提出的模型在均方误差(MSE)、均方根误差(RMSE)和平均绝对误差(MAE)上表现更优。

  3. MAPE改进:通过增加回顾(Look Back, LB)和前瞻(Look Forward, LF)的时间步长,模型的平均绝对百分比误差(MAPE)比现有方法提高了6-7%。

  4. 模型鲁棒性:即使在数据稀疏的情况下,提出的模型也能保持较高的预测精度,显示出良好的鲁棒性和稳定性。

    图片

论文4

IMA-LSTM: An Interaction-Based Model Combining Multihead Attention with LSTM for Trajectory Prediction in Multivehicle Interaction Scenario

IMA-LSTM:一个结合多头注意力机制和LSTM的交互式模型,用于多车交互场景中的轨迹预测

方法:

  1. 特征提取模块:设计了一个专门的特征提取模块,包括个体特征和交互特征,为编码器-解码器模块提供输入。

  2. LSTM编码器-解码器模块:使用多层LSTM网络作为编码器模块,捕获序列数据中的长期依赖关系,并将其编码成高维隐藏状态张量。

  3. 多头注意力机制:应用多头注意力机制,使模型能够同时关注不同方面,通过动态分配权重来识别和强调输入序列中对当前预测任务最重要的部分。

  4. 注意力层:位于编码器和解码器之间,将编码器输出的特征赋予不同权重,并将其转换为加权表示,以识别和强调输入序列中最重要的部分。

  5. 解码器模块:使用注意力层的输出以及自身的隐藏状态来生成未来状态的预测,递归构建未来轨迹的预测。

创新点:

  1. 交互式特征建模:IMA-LSTM模型通过结合多头注意力机制和LSTM框架,创新性地设计了专门的特征提取模块,包括个体特征和交互特征,以提高轨迹预测的准确性。

  2. 多头注意力机制的应用:通过使用多头注意力机制,IMA-LSTM模型能够更精细地模拟车辆间的时空交互特征,与不考虑多车交互特征的模型相比,在不同场景下平均减少了42.85%至47.06%的预测误差。

  3. 长期依赖关系的捕获:IMA-LSTM模型利用LSTM编码器-解码器架构有效地捕获长期依赖关系,提高了模型在复杂交通场景下的预测性能。

  4. 多车交互特征的重要性:IMA-LSTM模型在左变道(LLC)场景中的性能提升尤为明显,比其他模型在3-5秒预测范围内的平均RMSE降低了11.09%,显示出在复杂场景下精细交互特征建模的优势。

    图片

  更多论文料可以关注AI科技探寻,发送:111  领取更多[论文+开源码】 

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.9

TensorFlow-v2.9

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值