一个简洁高效的textual entailment model
特点:
- 模型小,效果好
- 思路清晰
方法:
- 交叉使用attention model进行信息互嵌(AM)
- 使用self-attention(BERT, transformer) + relative-position embedding(XLnet) 进行contextual embedding
- 将自嵌与互嵌的vector进行concatenation,进行分类
感想:
上述技巧都是google一派的传统了,在应用到BERT or XLnet这种pre-train模型之前,已经在具体的模型工作上有了积累
本文介绍一种小而有效的文本蕴含模型,采用交叉注意力机制和自注意力(如BERT、transformer),结合相对位置嵌入(如XLnet),实现上下文嵌入。通过自嵌与互嵌向量的拼接,完成分类任务。
863

被折叠的 条评论
为什么被折叠?



