面经之word2vec(2)

本文深入探讨word2vec的实现细节,包括使用查表技巧近似σ函数以节省计算资源,词典存储采用线性探测法确保高效查找,以及针对高频和低频词的采样策略。通过学习这些技巧,可以更好地理解和优化word2vec模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

面经之word2vec篇(二)

前篇

本篇文章主要是结合word2vec源码来进行分析其中的一些trick。为什么要学习呢?还不是因为热爱(面试官问了源码的相关内容,虽然之前看了,但是不熟悉,咱补起来…)

有时间还可以看一下word2vec经典的论文:(PS:本人说没看论文,看了代码,然后被鄙视了…)

言归正传,我们开始剖析源代码了:

1.word2vec σ \sigma σ函数的计算

按照我们的想法, σ \sigma σ直接计算不就完事了么?但是你实际考虑了计算资源了没,指数计算是比较耗费计算资源的(不懂的话可以类比一下决策树C4.5分类时,为了避免运行复杂的对数运算,后面CART树对分类基准直接是采用了基尼系数),那么对 σ \sigma σ函数计算的时候,大牛本人也是做了基本的近似:

在这里插入图片描述

不是向我们所想,使用函数来直接计算

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值