背景
在很多自然语言处理人物中,例如文本匹配,智能问答等都都需要衡量两个句子的相似度,一般情况我们采用将句子编码为向量表示,然后利用两个向量之间的相似度来表示句子的相似度,从而将自然语言环境下的问题转为来可以机器处理的问题。本文对最新的几种句子向量编码表示进行介绍。
模型介绍
SBERT(Sentence-BERT)
论文:Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks
模型原理
采用典型Siamese-Network结构,相同的两路模型对句子分别编码,最后两个编码向量作为一个简单模型的输入,根据不同的训练目标可以定义不同的损失函数对模型整体进行训练,总体目标是以训练两个编码向量的相似度最小为目标。

重点关注
- 可采用三种不同的目标函数:
- Classification Objective Function:o=softmax(Wt(u;v;∣u−v∣))o = softmax(Wt(u; v; |u − v|))o=softmax(Wt(

本文介绍了在自然语言处理中,通过句子向量表示进行文本相似度衡量的方法,重点解析了Sentence-BERT(SBERT)模型的原理,包括其采用的Siamese网络结构和三种不同的训练目标函数,表明SBERT在效果上优于其他常见模型。
最低0.47元/天 解锁文章
627

被折叠的 条评论
为什么被折叠?



