深度神经网络在词汇替换与面部识别中的应用研究
深度神经序列到序列的词汇替换
在自然语言处理中,词汇替换是一项重要任务。通过使用掩码技术,模型理论上可以轻松获取掩码片段的语义内容。为使问题与预训练定义尽可能相似,由于训练数据稀缺,模型输出被定义为整个句子,而非仅替换部分。为提取用于评估的替换部分,需从句子开头和结尾截断输入句子中非掩码字符的数量。
然而,Seq2Seq 架构虽有优势,但也带来问题。无法保证模型除掩码片段外不改变其他内容,例如输入 “[really likes] John
为解决训练数据问题,探索了合成数据集生成方法:
1. 单字替换(SWR) :对句子中每个单词进行消歧后,检查其所属同义词集大小。若大于 1,则为同义词集中每两个词汇单元的组合生成输入和输出句子。为保留单词正确形式,使用合成数据集生成管道。该数据集分为训练集(88182 条记录)和验证集(33766 条记录)。
2. 单字和上下文替换(SWCR) :SWR 方法中数据集存在许多上下文相同的示例。为增加上下文多样性和模型对无关上下文变化的鲁棒性,生成数据集时也替换非掩码单词,且输入和输出序列中掩码区域外替换的单词相同。该数据集训练集有 3205239 个样本,验证集有 1359584 个样本。
3. 较长句子片段替换(SLSF) :在句子语料库中随机选择要替换片段
深度神经网络在NLP与CV中的应用
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



