keywords: Word Vectors, SVD, Skip-gram. Continuous Bag of Words(CBOW). Negative Sampling.
关键词:词向量,奇异值分解,Skip-gram,CBOW,负抽样
词向量
One-hot vector: Represent every word as an R|V|×1 vector with all 0s and one 1 at the index of that word in the sorted english language
V 为词典大小
- 相似度距离无法计算
SVD
CBOW:从上下文预测中心词
算法
模型
Skip-gram:中心词预测上下文
算法
模型
目标函数
朴素贝叶斯假设:输出词之间相互独立
负抽样
负样本过大,计算复杂
负样本抽样之后,优化目标函数的目的变为:正负样本预测正确的概率均比较大时才是全局最有
D帽为负样本集合
本文介绍了词向量的基本概念及One-hot表示方法的局限性,并深入探讨了使用SVD进行降维的方法。同时,文章详细讲解了两种主流的词向量训练模型:Skip-gram与CBOW,包括其算法原理、模型结构以及如何通过负抽样优化目标函数。
507

被折叠的 条评论
为什么被折叠?



