深度强化学习在文本与语音处理中的应用
1. 深度强化学习在文本处理中的应用
深度Q网络(DQN)智能体已成功应用于训练对话系统,该系统将状态跟踪和对话策略统一起来,并将二者视为强化学习智能体可采取的动作。其架构学习一种最优策略,用于生成语言响应或更新当前对话状态。DQN模型使用长短期记忆网络(LSTM)生成对话状态表示,LSTM的输出作为一组策略网络的输入,这些策略网络以多层感知机网络的形式呈现,代表每个可能的动作,其输出表示每个动作的动作 - 状态价值函数。
由于高维的状态和动作空间,训练对话系统通常需要大量有标签的对话数据。为克服对训练数据的需求,提出了一种两阶段深度强化学习方法,采用演员 - 评论家架构。首先,通过分类交叉熵使用少量高质量对话对策略网络进行有监督训练以启动学习,然后使用深度优势演员 - 评论家方法训练价值网络。
1.1 文本摘要
文本摘要是一项有趣的自然语言处理任务,旨在自动生成人类可读的输入文本的自然语言摘要,可分为抽取式和抽象式摘要。抽取式摘要旨在去除多余文本,仅保留最相关的单词,同时保持自然语言形式;抽象式摘要则提供文本中相关要点的释义摘要。
召回导向的摘要评估指标(ROUGE)是文本摘要任务中最常用的标准质量度量。ROUGE - 1 测量预测摘要与真实参考文本之间共享的一元组,ROUGE - 2 测量共享的二元组,ROUGE - L 测量预测与真实文本之间的最长公共子串。然而,ROUGE 对预测的人类可读性提供的信息较少,通常语言模型的困惑度等指标可用于衡量这一点。
DQN 已成功应用于抽取式文本摘要任务。在该架构中,状态表示当前(部分)文本摘要,动作表示向该摘要添加句子,ROUGE 用作奖励。句子表示为文档向量(DocVec)、句子向量(SentVec)和位置向量(PosVec)的拼接。
基于注意力的深度学习网络在抽象式文本摘要任务中取得了显著进展,但尽管它们的 ROUGE 分数较高,却常常生成不自然的摘要。这为深度强化学习方法打开了大门,这些方法可以结合混合训练目标:
[L_{mixed} = \sigma L_{rl} + (1 - \sigma) L_{ml}]
其中 (L_{ml}) 是教师强制最大似然函数:
[L_{ml} = -\sum_{t = 1}^{n} \log p(y_t|y_1,y_2,\cdots,y_{t - 1},x)]
(L_{rl}) 是策略梯度目标:
[L_{rl} = -[r - r_b]\sum_{t - 1}^{n} \log P(y_t|y_1,y_2,\cdots,y_{t - 1},x)]
奖励 (r) 是像 ROUGE 这样的离散目标。
1.2 机器翻译
神经机器翻译的一个近期突破是使用序列到序列(seq2seq)模型。教师强制是训练这些网络的主要方法,但这些模型在预测时会出现暴露偏差。此外,解码器无法以特定目标生成感兴趣的目标序列,特别是在使用束搜索时,它往往更关注短期奖励,即短视偏差。机器翻译通常基于离散的 BLEU 度量进行评估,这会导致训练 - 测试不匹配。
为克服这些不足,提出了深度强化学习模型。基于 REINFORCE 训练算法的深度策略梯度(PG)模型可以解决 BLEU 指标的不可微性质问题,但 REINFORCE 在语言翻译这样的大动作空间中学习策略存在困难。
最近,提出了一种演员 - 评论家模型,通过价值函数估计纳入长期奖励。在该模型中,主要的序列预测模型是演员/智能体,价值函数作为评论家。当前序列预测输出是状态,候选令牌是智能体的动作。评论家由一个单独的循环神经网络(RNN)实现,并使用时间差分方法在真实输出上进行训练,使用目标评论家来减少方差。
2. 深度强化学习在语音处理中的应用
深度神经网络显著提高了当今语音识别系统的性能。当它们与高斯混合模型(GMM)或隐马尔可夫模型(HMM)一起作为混合系统的一部分使用时,训练期间声学模型的对齐是必要的。而在端到端系统中使用深度神经网络时,可以避免这一点,端到端系统通过直接最大化输入数据的似然性来学习转录。尽管这些系统目前处于领先水平,但仍存在各种局限性。
借鉴文本处理的经验,研究人员和从业者已开始将深度强化学习方法应用于语音和音频处理,包括自动语音识别、语音增强和噪声抑制等任务。
2.1 自动语音识别
自动语音识别(ASR)任务在很多方面与机器翻译相似。ASR 通常使用连接主义时间分类(CTC)最大似然学习,同时使用像词错误率(WER)这样的离散度量来衡量性能,因此存在训练 - 测试不匹配的问题。此外,作为序列预测任务,ASR 会受到暴露偏差的影响,因为它是在预测时不可用的真实标签上进行训练的。
使用策略梯度的深度强化学习方法已被证明能有效克服这些局限性。在这种方法中,ASR 模型被视为智能体,训练样本作为环境。策略 (\pi_{\theta}(y|x)) 由 (\theta) 参数化,动作被视为生成的转录,模型状态是隐藏数据表示,奖励函数采用 WER。策略梯度通过以下规则更新:
[\theta \leftarrow \theta + \alpha \nabla_{\theta} \log P_{\theta}(y|x)[r - r_b]]
2.2 语音增强和噪声抑制
机器学习语音增强方法已经存在了一段时间,增强技术通常分为四个子任务:语音活动检测、信噪比估计、噪声抑制和信号放大。前两个子任务提供目标语音信号的统计信息,后两个子任务使用这些统计信息提取目标信号。这可以自然地视为一个顺序任务。
基于策略梯度的深度强化学习方法已被提出用于语音增强任务。该架构使用 LSTM 网络对滤波器进行建模,其参数 (\theta) 由学习到的策略 (\pi_{\theta}) 确定。在这个模型中,滤波器是智能体,状态是一组滤波器参数,动作是滤波器参数的增加或减少。奖励函数测量滤波器输出与真实干净信号序列之间的均方误差。使用 REINFORCE 算法训练的这个策略梯度模型可以在不改变基线语音增强过程算法的情况下提高信噪比,并且通过纳入深度强化学习智能体,滤波器可以通过动态参数调整适应不断变化的底层条件。
以下是一个简单的流程图,展示了深度强化学习在语音增强中的应用流程:
graph TD;
A[输入带噪语音] --> B[特征提取];
B --> C[LSTM滤波器建模];
C --> D[生成动作(参数调整)];
D --> E[滤波器输出];
E --> F[计算奖励(均方误差)];
F --> G[更新策略梯度];
G --> C;
3. 案例研究
本案例研究将深度强化学习概念应用于文本摘要任务,使用康奈尔新闻室摘要数据集,重点关注深度策略梯度和双深度 Q 网络智能体。
3.1 软件工具和库
- TensorFlow :一个开源软件库,用于跨一系列任务的数据流编程,也是符号数学库,广泛用于神经网络等机器学习应用,在谷歌的研究和生产中都有使用。
- RLSeq2Seq :一个开源库,使用序列到序列模型实现各种强化学习技术进行文本摘要。
- pyrouge :一个 Python 接口,用于基于 Perl 的 ROUGE - 1.5.5 包,用于计算文本摘要的 ROUGE 分数。
3.2 文本摘要评估指标
为衡量机器生成摘要的性能,使用 ROUGE 指标。ROUGE - N、ROUGE - S 和 ROUGE - L 是比较系统预测摘要和参考摘要时文本粒度的度量。例如,ROUGE - 1 指系统摘要和参考摘要之间一元组的重叠,ROUGE - 2 指二元组的重叠。
3.3 探索性数据分析
康奈尔新闻室数据集包含 130 万篇文章和摘要,由 38 家主要出版物的新闻作者和编辑在 1998 年至 2017 年间撰写,分为训练集(110 万个样本)、开发集(10 万个样本)和测试集(10 万个样本)。
本案例研究使用该数据集的子集,分别为 10000/1000/1000 篇文章和摘要作为训练、验证和测试集。使用 word2vec 生成的 100 维嵌入对这些数据集进行分词和映射,为考虑内存,将词汇表限制为 50000 个单词。
以下是不同模型在文本摘要任务中的 ROUGE 指标对比表格:
|模型|F - score|Precision|Recall|
| ---- | ---- | ---- | ---- |
|Seq2Seq(MLE 训练) - ROUGE - 1|15.6|20.6|14.5|
|Seq2Seq(MLE 训练) - ROUGE - 2|1.3|1.6|1.3|
|Seq2Seq(MLE 训练) - ROUGE - L|14.3|19.0|13.3|
|DPG - ROUGE - 1|22.4|19.6|35.3|
|DPG - ROUGE - 2|6.0|5.8|8.5|
|DPG - ROUGE - L|17.6|15.5|28.0|
|DDQN - ROUGE - 1|34.6|28.8|55.5|
|DDQN - ROUGE - 2|21.4|19.0|31.1|
|DDQN - ROUGE - L|30.4|25.7|47.7|
3.4 模型训练与评估
- Seq2Seq 模型 :首先使用最大似然损失、编码器和解码器层大小为 256、批量大小为 20 以及带有梯度裁剪的自适应梯度算法(Adagrad)对 seq2seq 模型进行 10 个周期的预训练。预训练后,在测试集上评估该模型,结果显示生成的摘要尚可,但仍有改进空间。
- 策略梯度(DPG) :应用深度策略梯度算法改进摘要。将奖励函数设置为 ROUGE - L F1 分数,从最大似然估计(MLE)损失切换到强化学习(RL)损失,继续训练 8 个周期。评估结果表明,随着训练的增加,生成的摘要更接近人类生成的语言。
- 双深度 Q 网络(DDQN) :先使用最大似然损失对 seq2seq 语言模型进行 10 个周期的预训练,然后使用批量大小为 20、回放缓冲区为 5000 个样本的双深度 Q 网络进行 8 个周期的训练,并每 500 次迭代更新一次目标网络。为获得更好的结果,先使用固定演员对 DDQN 智能体进行一个周期的预训练。评估结果显示,在所选参数下,DDQN 智能体的性能优于 DPG 智能体。
总之,深度强化学习在文本和语音处理中展现出了巨大的潜力,通过不断优化模型和算法,可以进一步提高处理效果。同时,对于不同的任务和数据集,选择合适的模型和参数至关重要。未来,深度强化学习有望在更多的语音处理领域得到广泛应用。
以下是一些供读者和从业者思考的问题:
1. 在使用带有软注意力的 seq2seq 模型进行文本分类任务时,如何结合 DQN 智能体?
2. 双 DQN 智能体使用两个单独的目标网络是否有意义?为什么?
3. Q 学习模型应使用哪种深度神经网络?卷积神经网络(CNN)是否合适?为什么?
深度强化学习在文本与语音处理中的应用
4. 技术点分析与解读
4.1 深度 Q 网络(DQN)在不同任务中的应用
DQN 在对话系统和文本摘要任务中都有应用,但具体实现有所不同。在对话系统中,DQN 统一了状态跟踪和对话策略,将二者作为可采取的动作。其使用 LSTM 网络生成对话状态表示,输出作为多层感知机网络(策略网络)的输入,策略网络输出每个动作的动作 - 状态价值函数。而在文本摘要任务中,状态表示当前部分文本摘要,动作是向摘要添加句子,ROUGE 作为奖励。这种不同的应用方式体现了 DQN 对不同任务的适应性,通过调整状态、动作和奖励的定义,能够在不同场景下发挥作用。
4.2 策略梯度方法的优势与挑战
策略梯度方法,如深度策略梯度(DPG),在解决一些传统方法的问题上具有优势。在机器翻译和自动语音识别任务中,传统方法存在训练 - 测试不匹配和暴露偏差等问题,而策略梯度方法可以通过直接优化策略来克服这些问题。例如,在自动语音识别中,将 ASR 模型视为智能体,训练样本作为环境,通过策略梯度更新规则来优化策略。然而,策略梯度方法也面临挑战,如在大动作空间中学习策略的困难,像在语言翻译任务中,REINFORCE 算法就存在这方面的问题。
4.3 混合训练目标的意义
在抽象式文本摘要任务中,基于注意力的深度学习网络虽然 ROUGE 分数高,但生成的摘要不自然。引入混合训练目标 (L_{mixed} = \sigma L_{rl} + (1 - \sigma) L_{ml}) 可以结合教师强制最大似然函数 (L_{ml}) 和策略梯度目标 (L_{rl}) 的优势。(L_{ml}) 有助于模型学习基本的语言结构,而 (L_{rl}) 可以根据奖励(如 ROUGE)来优化策略,从而生成更符合人类需求的摘要。
5. 操作步骤总结
5.1 文本摘要任务的操作流程
- 数据准备 :使用康奈尔新闻室数据集,将其分为训练、验证和测试集,使用 word2vec 生成 100 维嵌入对数据进行分词和映射,并将词汇表限制为 50000 个单词。
-
模型选择与预训练
- Seq2Seq 模型 :使用最大似然损失、编码器和解码器层大小为 256、批量大小为 20 以及带有梯度裁剪的 Adagrad 算法进行 10 个周期的预训练。
-
强化学习训练
- 策略梯度(DPG) :将奖励函数设置为 ROUGE - L F1 分数,从 MLE 损失切换到 RL 损失,继续训练 8 个周期。
- 双深度 Q 网络(DDQN) :先使用最大似然损失对 seq2seq 语言模型进行 10 个周期的预训练,然后使用批量大小为 20、回放缓冲区为 5000 个样本的双深度 Q 网络进行 8 个周期的训练,并每 500 次迭代更新一次目标网络。为获得更好的结果,先使用固定演员对 DDQN 智能体进行一个周期的预训练。
- 模型评估 :使用 ROUGE 指标在测试集上评估模型性能。
5.2 自动语音识别任务的操作流程
- 模型定义 :将 ASR 模型视为智能体,训练样本作为环境,定义策略 (\pi_{\theta}(y|x)) 由 (\theta) 参数化,动作是生成的转录,模型状态是隐藏数据表示,奖励函数采用 WER。
- 策略梯度更新 :根据规则 (\theta \leftarrow \theta + \alpha \nabla_{\theta} \log P_{\theta}(y|x)[r - r_b]) 更新策略梯度。
6. 总结与展望
深度强化学习在文本和语音处理领域展现出了强大的能力。通过在对话系统、文本摘要、机器翻译、自动语音识别和语音增强等任务中的应用,我们看到了它能够解决传统方法存在的一些问题,如训练 - 测试不匹配、暴露偏差等。不同的模型和算法在不同任务中各有优劣,例如 DQN 在对话系统和文本摘要中有独特的应用方式,策略梯度方法在解决特定问题上具有优势,而混合训练目标可以提高摘要的质量。
在未来,深度强化学习有望在更多的语音处理领域得到广泛应用,如说话人分割、说话人语调检测和压力分析等。同时,随着技术的发展,我们可以进一步探索如何优化模型和算法,例如通过改进奖励函数、调整模型结构等方式来提高处理效果。对于不同的任务和数据集,选择合适的模型和参数仍然是关键。
以下是一个简单的 mermaid 流程图,展示了深度强化学习在文本处理中的整体流程:
graph LR;
A[数据准备] --> B[模型选择];
B --> C[预训练];
C --> D[强化学习训练];
D --> E[模型评估];
E --> F{结果是否满意};
F -- 是 --> G[应用模型];
F -- 否 --> B;
总之,深度强化学习为文本和语音处理带来了新的思路和方法,通过不断的研究和实践,我们可以期待在这些领域取得更多的突破。同时,对于读者和从业者提出的问题,如如何结合 DQN 智能体进行文本分类、双 DQN 智能体使用两个单独目标网络的意义以及 Q 学习模型中 CNN 的适用性等,值得进一步深入探讨和研究。
超级会员免费看


被折叠的 条评论
为什么被折叠?



