- 博客(7)
- 收藏
- 关注
原创 深度学习推荐系统论文汇总
AutoRecAutoRec: AutoRec: Autoencoders Meet Collaborative Filtering。Deep CrossingDeep Crossing: Deep Crossing: Web-Scale Modeling without Manually Crafted Combinatorial Features。NeuralCFNeuralCF: Neural Collaborative Filtering。PNNPNN: Product-based N
2020-08-08 19:27:00
931
原创 word2vec资料汇总
论文阅读word2vec是基于单词的上下文语境学习单词的词向量表示的一种技术,相比于one-hot编码高维、稀疏的特点,word2vec可以学习到低维、连续的词向量表示,同时编码的词向量可以很好的度量单词的语义相似性。相关论文可以参考:Efficient Estimation of Word Representations in Vector Space 。模型解析为了学习单词分布式的词向量表示,word2vec提出了两种模型CBOW和Skip-gram,其中CBOW是基于单词的上下文单词预测中心单词
2020-07-11 17:11:44
306
原创 graph embedding资料汇总
论文阅读图嵌入(graph embedding)算法的目标是将图中每个顶点映射到一个高维的连续空间中,使得原来图中近邻的顶点或者相同结构的顶点投影到高维空间后,保持近邻关系不变。比价经典的论文有:depwalk 和 node2vec。模型解析deepwalk基于随机游走算法产生节点序列,然后调用word2vec算法学习每个节点的embedding,而node2vec在采样节点序列时同时考虑节点的近邻关系和节点的结构相似关系,利用广度优先和深度优先算法产生节点序列,然后调用word2vec算法学习每个节
2020-07-04 19:21:46
270
原创 bert资料汇总
论文阅读bert是google提出的一种基于transformer的深度语言模型,其最大的特点一是使用transformer作为特征提取器,替换了之前的RNN;二是双向编码的深度模型。了解该模型最直接的方式就是阅读论文原文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding。模型解析bert模型是一种基于transformer多层堆砌的深度语言模型,其深度可以达到L = 24 层。相较于之前深
2020-06-25 18:52:33
302
原创 因子分解机公式推导(Factorization Machine)
基本定义在逻辑回归的分类公式中,传入给sigmoid函数的参数是特征的线性组合,计算如公式1所示。该公式的不足之处是没有考虑特征间的相互作用,而特征的相互作用(即特征交叉)是很重要的,例如在CTR预估场景,性别和购买行为就有很强的关联性,女性更愿意购买化妆品,而男性更愿意购买运动产品。为了考虑特征的相互作用,因子分解机(Factorization Machine,简称FM)显示地对两两特征交叉进...
2019-12-07 19:37:55
914
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人