4-1 C&W Word2Vec

C&W Loss Function

∑ ( w , c ) ∈ D ∑ w ′ ∈ V m a x ( 0 , 1 − s c o r e ( w , c ) + s c o r e ( w ′ , c ) \sum_{(w,c)\in D}\sum_{w'\in V}max(0, 1-score(w,c)+score(w',c) (w,c)DwVmax(0,1score(w,c)+score(w,c)

想起了机器视觉课上老师讲的损失函数。
对于每个样本,其错误分类的得分减去正确分类的得分,再加一个鲁棒值(自己起的名)1,作为整个数据集的损失。

C&W 模型结构

C&W Model


Word2Vec - CBOW

Word2Vec - CBOW

模型很简单:将上下文向量求和,作softmax,即得到结果。

输入:上下文。
输出:中间词是哪个词。

与NNLM相比:

  1. 去掉了隐藏层。
  2. 用输入向量的和代替了向量的拼接。

在代码实现部分,有一个很实用的技巧,将index转化成onehot向量,不需要用OnehotEncoder,可以用torch.eye(vocab_size)[index],得到的行向量即onehot向量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值