- 博客(4)
- 收藏
- 关注
原创 NFM模型
含义NFM模型是将FM与DNN进行融合,通过引入特征交叉池化层将FM与DNN进行衔接,这样就组合了FM的建模低阶特征交互能力和DNN学习高阶特征交互和非线性的能力。在上一节DEEPFM中,我们已经知道,FM只能将两个特征进行重组,而不能将高阶特征进行重组,并且FM是线性组合,将DNN引入,可以提升FM进行特征交互能力和学习非线性表达的能力。NFM公式与FM公式相比,红色部分被一个表达能力更强的函数替代,特征之间的交互不局限于两个特征,也不局限与线性组合了。NFM在fm得到二阶的交叉特征之后,加入
2021-03-24 20:50:59
1077
原创 DeepFM学习笔记
DNN,FNN,PNN等都能实现对特征的重新构建,但是DNN存在一个问题,就是其实用的是one-hot编码的,这样的话会导致其处理的数据量很庞大。知识补充DNN:深度神经网络FNN基于因子分解的神经网络(Factorization Machine supported Neural Network, FNN)FNN实现特征之间的交叉是使用拼接(concatenate)的方式,然后用几个激活函数加深模型。输入的类别特征是ONE-HOT编码的,每个field相当于一个类别特征。输出是一个代表用户点击该广
2021-03-21 11:42:45
430
原创 datawhale WIDE&DEEP学习笔记
datawhale WIDE&DEEP学习笔记CTR就是广告点击率,click through ratedeepcrossing的特征交叉,是能够实现一种记忆能力的,它能够记住共现频率高的特征组合,但是不能基于此探索新的特征组合。针对前面的deepcrossing存在的:有一些特征没有被充分学习,因此产生的embedding 向量不准确,因此会导致模型泛化过度的问题,WIDE&DEEP这一模型就被引进,该模型围绕记忆性和泛化性,能从历史数据中学习到高频共现的特征组合。模型的memori
2021-03-18 14:39:27
224
2
原创 datawhale组队学习笔记——deepcrossing
datawhale组队学习笔记——deepcrossingdeepcrossing的网络层embedding层embedding的解释在这篇博客说的很清晰:link将稀疏的类别型特征转成稠密的Embedding向量,Embedding的维度会远小于原始的系数特征向量。稀疏矩阵(比如:one-hot编码)具有方便快捷,表达能力强的优点,但是过于稀疏时,会非常占用资源。因此就出现了embedding层,它使用的是矩阵乘法这一原理。但是数据低维的时候,embedding又可以起到升维的作用,可以将一些
2021-03-16 20:16:17
198
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人