-
词嵌入要解决什么问题
在自然语言系统中,词被看作最为基本的单元,如何将词进行向量化表示是一个很基本的问题,词嵌入(word embedding)就是把词映射为低维实数域向量的技术。
下面先介绍几种词的离散表示技术,然后总结其缺点,最后介绍词的分布式表示及其代表技术(word2vec)。
-
词的离散表示
-
One-hot表示
根据语料构造一个大小为V的词汇表,并为每一个词分配一个id。
每个词都可以表示为一个V维向量,除了该词id对应的维度为1外,其余维度为0。
-
n-gram
与One-hot类似,只是统计单元由单个的词变成了连续的几个词,如2-gram是统计连续的两个单词构造词典。
-
离散表示的缺点
- 词向量维度随着词汇表大小的增长而增长带来的内存问题;
- 词向量过于稀疏,浪费内存,丢失信息;
- 无法衡量词和词之间的关系。
-
-
词的分布式表示
词的分布式表示的核心思想是:一个词是由这个词的周边词汇一起来构成精确的语义信息,因此可以用一个词附近的其他词来表示该词。词的分布式表示有以下几种代表方法:
-
共现矩阵
使用固定大小的滑窗统计词与词在窗口内的共现次数,然后将每个词表示为一个大小为V的矩阵,每个维度为该词与该维度对应词的共现次数。
共现矩阵方法仍然会存在内
-
工智能基础知识总结--词嵌入之Word2Vec
最新推荐文章于 2025-05-17 14:35:32 发布
本文介绍了词嵌入的基本问题,探讨了One-hot和n-gram的局限性,重点讲解了Word2Vec模型,包括CBoW和Skip-gram结构,以及优化方法层次Softmax和负采样。Word2Vec通过上下文预测词或反之,学习词的稠密向量表示,解决了词向量的稀疏性和内存问题。

订阅专栏 解锁全文
2250

被折叠的 条评论
为什么被折叠?



