目录
2、Continuous bag of words (CBOW)
2.2、 CBOW Multi-Word Context Model
4、Word2Vec加速训练的方法(Hierarchical SoftMax和Negative sampling)
4.1 分层softmax(Hierarchical SoftMax)
4.2 负采样(Negative sampling)—— more popular and efficient
5.1 Negative Sampling,对词频低的和词频高的单词有什么影响
5.2 Hierarchical Softmax的计算过程,怎么把 Huffman 放到网络中的?参数是如何更新的?对词频低的和词频高的单词有什么影响
1、Doc2Vect(Documents to Vectors)
一、机器学习和深度学习中的学习表示
1、RNN知识回顾


2、传统特征提取和现代的特征提取对比

本文深入探讨了机器学习和深度学习中的学习表示,特别是聚焦于词嵌入(Word embedding)的理论与实践,包括One hot representation的优缺点和Word2vec模型的详细解析,如CBOW、Skip-gram、Hierarchical SoftMax与Negative sampling等,以及Word2Vec在实际应用中的局限性和调参建议。
订阅专栏 解锁全文
768

被折叠的 条评论
为什么被折叠?



