GloVe模型的理解及实践(1)

本文介绍了GloVe(Global Vectors for Word Representation)模型的基本原理,对比了GloVe与Skip-Gram、CBOW模型的区别,并详细阐述了GloVe模型构建共现矩阵以及训练词向量的步骤。通过共现矩阵统计单词的全局共现信息,GloVe结合了矩阵分解和上下文信息,旨在提供更优的词向量表示。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、GloVe模型的理解

1) 原理

功能:基于语料库构建词的共现矩阵,然后基于共现矩阵和GloVe模型对词汇进行向量化表示

输入:语料库  输出:词向量

2)与Skip-Gram、CBOW模型比较

例如:句子为"dog barked at the mailman" ,目标单词为'at'

Skip-gram模型:Skip-gram模型只关注单个输入/输出元组中的目标词和上下文中的单个单词,输入为["dog", "at"]

CBOW模型:关注目标单词和单个样本中上下文的所有单词,则输入为[["dog","barked","the","mailman"],"at"]

因此,在给定数据集中,对于指定单词的上下文而言,CBOW比Skip-gram会获取更多的信息。Global Vector融合了矩阵分解的全局统计信息和上下文信息。

3)步骤

1.构建共现矩阵

例如句子为:i love you but you love him i am sad
包括7个单词:i、love、you、but、him、am、sad

设context = 5,则目标单词的左右长度都为2,以下为统计窗口:

注:中心词为目标单词,窗口内容为目标单词的左右各两个单词。

如:"i"左边无单词,右边有两个单词"love","you",所以窗口内容为["i","love","you"]

 

设:语料句子长度为n,共现矩阵为&n

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值