自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

张小彬

分享自己所学,因为我也是这样过来的。

  • 博客(5)
  • 收藏
  • 关注

原创 校招如何成为大厂算法工程师(双非硕,详细攻略)

校招如何成为大厂算法工程师,楼主是双非同学,所以我想我更能够和大多数的普通同学有相同经历和感受,能够和大家有更强的共鸣。

2024-04-20 17:25:53 4078 2

原创 个人NLP实习面经汇总

大厂双非同学NLP实习面试经历,可能会对某些即将面试的同学有所帮助,所以决定把自己亲身经历的面试内容做个分享,以下所有内容均是面试真实问到的内容。

2022-02-26 12:20:55 3180 1

原创 NLP笔记之word2vec算法(3)--Negative Sampling原理+数学推导

前一篇文章中,我们介绍了基于Hierarchical Softmax的模型,在word2vec中还提出了一个叫做Negative Sampling的方法,本文对Negative Sampling进行一个介绍。首先我们先介绍一些Hierarchical Softmax存在的一些缺陷,因为Hierarchical Softmax是基于哈夫曼树的算法,相对于传统的神经网络来说,Hierarchical Softmax的确可以很大效率的提升模型的速度和效率,但是如果对于某些比较生僻的词来说,因为我们知道哈夫曼树

2021-02-10 10:52:25 1296 4

原创 NLP笔记之word2vec算法(2)--Hierarchical Softmax原理+数学推导

对应于上面的神经网络图来说,Input layer就是求和取平均值的向量,隐藏层的神经元就是哈夫曼树中所有的内部节点,输出层的神经元就是所有叶子节点。因为在哈夫曼树中,隐藏层到输出层的softmax映射不是一下子分母求和完成的,而是沿着哈夫曼树一步步向下延伸所求得的,因此这种softmax叫做“Hierarchical softmax” ,也叫层级softmax。

2021-02-09 11:42:15 850 3

原创 NLP笔记之word2vec算法(1)--Skip-gram算法原理+数学推导

word2vec中提出了两种模型来进行word embedding,分别是Skip-gram 和 CBOW(continuous bag of words),这两种模型的概念在Word2vec之前就已经提出来了。下面先对两种模型做个简要的介绍:Skip-gram : 给定中心词,预测窗口内的上下文的词CBOW : 给定窗口内的上下文的词, 预测中心词可以看出两种模型属于相反的一个关系,下面分别对两种模型进行相应的介绍。

2021-02-07 20:52:45 7945 5

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除