17、深度学习中的注意力机制与多任务学习

深度学习中的注意力机制与多任务学习

1. 深度学习模型选择与注意力机制

在深度学习中,有两种重要的模型:静态多层感知机(MLP)和时序长短期记忆网络(LSTM)。我们可以根据具体应用场景以及时序信息是否起作用来选择使用哪种模型。

下面有一个相关练习:创建一个有状态的AttentionLSTM版本,并将其应用于由分段文档组成的时序数据。检验该模型是否能够对文档开头的某些单词保持注意力。

同时,我们还学习了以下内容:
- 如何向MLP模型添加简单的静态软注意力或全局注意力机制。这种注意力机制靠近输入层,会为单词分配权重。
- 如何通过实现专有的Keras层,为LSTM实现时序软注意力或全局注意力。
- 如何使用词云来可视化注意力。

在实验中,我们观察到:
- 这些简单的注意力机制似乎能够处理噪声数据(停用词)。
- 从性能角度来看,去除停用词可能不是一个好主意。噪声停用词似乎能够吸引网络的有价值注意力。

需要注意的是,对输入数据的注意力是解释数据某些部分重要性的初始步骤。将注意力应用于模型的更高抽象层次可能会反映出更有意义的注意力,但在深度自然语言处理模型中,语言抽象究竟是如何发生的问题仍未解决。

2. 多任务学习概述

多任务学习旨在联合学习多个自然语言处理(NLP)任务,通过共同学习来提高每个子任务的性能。我们将学习三种不同的多任务学习方法,并将其应用于实际的NLP问题。具体会应用到以下三个数据集:
- 两个情感数据集,分别是消费者产品评论和餐厅评论。
- 路透社主题数据集。
- 词性标注和命名实体标注数据集。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值