22、基于深度学习与语义表示的复杂问题解答技术解析

基于深度学习与语义表示的复杂问题解答技术解析

1. 门控循环单元(GRUs)与相关处理流程

门控循环单元(GRUs)是循环神经网络(RNNs)中的一种门控机制。GRU类似于带有遗忘门的长短期记忆网络(LSTM),但由于缺少输出门,其参数比LSTM更少。双向GRU(BiGRU)每次接收一个词向量作为输入,随后在每个隐藏状态$h_t$上应用注意力层,注意力权重通过拼接BiGRU的当前隐藏状态和第二层BiGRU的过去隐藏状态来学习。

对于$m$个标签序列,用$L_i$表示标记$x_i$的标签序列,即$e(L_i)={e(t_1), \ldots, e(t_m)}$。将$m$个标签表示序列拼接后输入全连接层,得到维度为$d$的精炼联合表示$e_t$:
$e^0(L_i) = W_2 [e(t_1), \ldots, e(t_m)] + b_2$
$e_t = [e^0(L_1), \ldots, e^0(L_n)]$
其中$W_2$和$b_2$是可训练参数。

在整合过程中,需要将词法文本嵌入和标签表示进行合并。由于预训练的BERT基于子词序列,而语义表示针对单词,因此需要对齐不同大小的序列。具体做法是将每个单词的子词分组,并使用带有最大池化的卷积神经网络(CNN)来获得词级表示。

以单词$x_i$为例,它由子词序列$[s_1, s_2, \ldots, s_l]$组成,$l$为子词数量。将BERT中第$j$个子词的表示记为$e(s_j)$,首先使用卷积层:
$e_i^0 = W_1 [e(s_i), e(s_{i+1}), \ldots, e(s_{i+k - 1})] + b_1$
其中$W_1$和$b_1$是可训练

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值