
深度学习
文章平均质量分 86
Bryan__
17年硕士毕业入职腾讯,工作4年晋升至T11
研究生期间多次参加国内外数据挖掘竞赛,累计获得10次top3;
ijcai-2017冠军,kddcup-2017季军,ijcai-2018亚军;
工作方向:大规模搜索推荐,算法与架构开发
展开
-
DSIN:Deep Session Interest Network for Click-Through Rate Prediction
这是一篇对用户序列建模的论文,用户session内的行为相似,session之间的行为差异较大.其中session根据行为发生的时间进行划分,然后进行兴趣提取,兴趣交互,兴趣激活原创 2022-03-18 22:12:15 · 636 阅读 · 0 评论 -
DUMN : Deep User Match Network for Click-Through Rate Prediction
介绍一篇很有意思的论文,DUMN,论文的亮点在于将item侧的行为序列也加入建模,通过计算user to user 的相似度,来表达target user与target item之间的相似度.原创 2022-03-16 22:27:08 · 1844 阅读 · 2 评论 -
GRU & LSTM
循环神经网络GRU原理原创 2022-03-09 16:12:36 · 1481 阅读 · 0 评论 -
收藏一些非常不错的学习资源
scikit-learn技术专栏结构之法,编程之道苍老师的gitwepon的git雪伦的博客:机器学习算法原理及实现专栏RDD操作,shuffle和持久化Kaggle Competition Past Solutions当我们在谈论数据挖掘CS231n机器学习课程李困困整理的原创 2017-07-06 20:31:20 · 3082 阅读 · 1 评论 -
从ctr预估问题看看f(x)设计—DNN篇
转自:https://zhuanlan.zhihu.com/p/28202287把DNN引入ctr预估无非看重两点:一,改进模型结构,提高“信息利用率”,发现高阶非线性特征,挖掘以前挖不到潜在模式,比如DIN引入attention机制;一般来说Embedding+MLP是标配。二,扩充“信息量”,把图片/文本这类不好处理的数据利用起来,比如DeepCTR;#0 RoadMa原创 2017-08-24 21:50:57 · 7128 阅读 · 3 评论 -
图解RNN、RNN变体、Seq2Seq、Attention机制
转自:https://zhuanlan.zhihu.com/p/28054589本文主要是利用图片的形式,详细地介绍了经典的RNN、RNN几个重要变体,以及Seq2Seq模型、Attention机制。希望这篇文章能够提供一个全新的视角,帮助初学者更好地入门。一、从单层网络谈起在学习RNN之前,首先要了解一下最基本的单层网络,它的结构如图:输入是x,经过变换W原创 2017-09-07 20:53:52 · 4256 阅读 · 0 评论 -
DenseNet 简介
1.首先对深度学习做一个简单的回顾2.介绍DenseNet1.1 DNN回顾如下图所示是一个基本DNN结构,通过forward传播和backword传播来训练一个模型包含input层,L个隐藏层和一个output隐层使用的sigmoid激活函数一般的优化方法有如下几种GD:对所有样本计算完一次梯度然后更新权重SGD:每个样本计算一次梯度就更新权重原创 2017-08-17 19:00:11 · 51307 阅读 · 5 评论 -
1x1卷积核如何降低参数量
本文介绍1*1的卷积核与googlenet里面的Inception。正式介绍之前,首先回顾卷积网络的基本概念。 1. 卷积核:可以看作对某个局部的加权求和;它是对应局部感知,它的原理是在观察某个物体时我们既不能观察每个像素也不能一次观察整体,而是先从局部开始认识,这就对应了卷积。卷积核的大小一般有1x1,3x3和5x5的尺寸。卷积核的个数就对应输出的通道数,这里需要说明的是对于输入的每个通道,原创 2017-08-17 15:53:28 · 12365 阅读 · 1 评论 -
用python实现一个神经网络
原文:http://www.wildml.com/2015/09/implementing-a-neural-network-from-scratch/# -*- coding: utf-8 -*-"""Created on Fri Jul 7 15:37:41 2017@author: bryan"""import numpy as npfrom matplotli原创 2017-07-07 16:46:02 · 1503 阅读 · 1 评论 -
BP神经网络的数学原理及其算法实现
来源:http://blog.youkuaiyun.com/zhongkejingwang/article/details/44514073 什么是BP网络BP神经网络,BP即Back Propagation的缩写,也就是反向传播的意思,顾名思义,将什么反向传播?文中将会解答。不仅如此,关于隐层的含义文中也会给出个人的理解。最后会用Java实现的BP分类器作为其应用以加深印象。 很多初原创 2015-06-01 21:46:19 · 8883 阅读 · 1 评论 -
基于tensorflow实现word2vec
使用NCE作为损失函数,SGD优化,skipGram模式# -*- coding: utf-8 -*-"""Created on Sat Jul 22 17:35:12 2017@author: bryan"""import collectionsimport mathimport osimport randomimport zipfileimport numpy as原创 2017-07-31 20:24:48 · 2071 阅读 · 0 评论 -
70行Java代码BP神经网络
神经网络的计算过程神经网络结构如下图所示,最左边的是输入层,最右边的是输出层,中间是多个隐含层,隐含层和输出层的每个神经节点,都是由上一层节点乘以其权重累加得到,标上“+1”的圆圈为截距项b,对输入层外每个节点:Y=w0*x0+w1*x1+…+wn*xn+b,由此我们可以知道神经网络相当于一个多层逻辑回归的结构。(图片来自UFLDL Tutorial)算原创 2016-04-30 23:52:10 · 11906 阅读 · 12 评论 -
CNN笔记:通俗理解卷积神经网络
来源:http://blog.youkuaiyun.com/v_july_v/article/details/51812459通俗理解卷积神经网络(cs231n与5月dl班课程笔记)1 前言 2012年我在北京组织过8期machine learning读书会,那时“机器学习”非常火,很多人都对其抱有巨大的热情。当我2013年再次原创 2017-07-19 11:40:04 · 1426 阅读 · 0 评论 -
tensorflow实现AlexNet
参考:http://hacker.duanshishi.com/?p=1661使用LR可以得到0.92的分类正确率使用AlexNet可以得到0.95的分类正确率使用LR# -*- coding: utf-8 -*-"""Created on Mon Jul 17 16:26:57 2017@author: bryan"""import tensorflow a原创 2017-07-18 16:34:57 · 1751 阅读 · 0 评论 -
在tensorflow中使用CNN
# -*- coding: utf-8 -*-"""Created on Tue Jul 18 15:48:07 2017@author: bryan"""import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_d原创 2017-07-19 22:10:06 · 939 阅读 · 0 评论