面向语义关系的word2vec

该文介绍了一种面向语义关系的word2vec模型。通过学习词的嵌入表示并结合上下文信息,该模型能有效捕捉词间的语义关系。具体包括词嵌入表示的学习、构建词的语义关系特征以及有监督的语义关系学习。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

面向语义关系的word2vec

文献:Hashimoto K, Stenetorp P, Miwa M, et al. Task-oriented learning of word embeddings for semantic relation classification[J]. arXiv preprint arXiv:1503.00095, 2015.

主要思想:

  • 从词语间语义关系提取的任务入手,学习词的嵌入表示。

具体过程

(1)词的嵌入表示

对于位于矩阵中的名词对n=(n1,n2),具有三个方面的信息:n1之前的词Wbefn1n2之间的词Winn2之后的词Waft, 其中,

  • Wbef=(wbef1,,wbefMbef)
  • Win=(win1,,winMin)
  • Waft=(waft1,,waftMaft)

通过对这三个方面的信息进行连接与均值操作,进而构造用以预测词wini的特征向量如下(fR2d(2+c)×|W|):

  • f=[N(n1);N(n2);W(wini1);;W(winic);W(wini+1);;W(wini+c);1Moutj=1MoutW(wbefj);1Moutj=1MoutW(waftj)]

进而有如下形式logistic预测模型:

  • p(w|f)=σ(W~(w)f+b(w))

其中W~(w)为权重向量,b(w)为偏置,W~R2d(2+c)×|W|的每一列对应一个词向量。在利用无标签数据训练预测模型时,若直接采用穷举法,则会导致prohibitive的计算代价,由于|W|是一个非常大的数。如何办?

负采样(negative sampling):运用unigram噪声分布随机采样k个与wini相比较的词wj, 在此基础上嵌入表示学习可通过最大化如下目标函数来实现:

  • Junlabelled=ni=1Min(log(p(wini|f))+j=1klog(1p(wj|f)))

(2)构建词的语义关系特征

对于句子中的名词对(n1,n2), 其特征主要包括:自身特征gn, 中间词特征gin与外部词特征gout.

  • gn=[N(n1);N(n2)]

  • gin=1Mini=1Minhi, 其中hi=[W(wini1);;W(winic);W(wini+1);;W(wini+c);W~(wini)]

  • gout=1Mout[j=1MoutW(wbefj);j=1MoutW(waftj)]

则样本k的特征向量可记为ek=[gn;gin;gout]

(3)有监督的语义关系学习

L类的有监督学习的实质就是最大化如下概率:p(lk|ek)=exp(o(lk))Li=1exp(o(i)), 其中o=Sek+s, Ss为softmax参数,o(i)oRL×1的第i个分量.

进而有如下目标函数:

  • Jlabeled=k=1Klog(p(lk|ek))λ2θ2

    其中θ=(N,W,W~,S,s)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值