(阅读)MPC-BERT: A Pre-Trained Language Model for Multi-Party Conversation Understanding
论文地址代码标题MPC-BERT:一种用于多方对话理解的预训练语言模型摘要最近,用于多方对话(MPC)的各种神经网络模型在诸如接收人(addressee)识别、说话人识别和回复预测等任务上取得了令人印象深刻的改进。然而,现有的MPC方法通常都是将对话者和对话语句单独表征,而忽略了MPC固有的复杂结构,这种结构可以提供关键的对话者和对话语句语义信息,从而增强会话理解过程。为此,我们提出了MPC-BERT,这是一个预训练的MPC理解模型,它考虑在一个带有多个精心设计的自监督任务的统一模型中学
原创
2021-10-29 17:04:36 ·
1193 阅读 ·
1 评论