
Machine learning
杨良全
菜鸟,对机器学习、数据挖掘等感兴趣。
展开
-
EM(Expectation-Maximization)算法的浅显理解
EM算法E步;估计隐含变量M步:估计其他参数交替迭代以上两步,将似然函数的极值推向最大。以下两篇博客写的比较好:http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.htmlhttp://blog.youkuaiyun.com/zouxy09/article/details/8537620原创 2016-05-16 15:14:35 · 576 阅读 · 0 评论 -
深度学习优化方法
http://blog.youkuaiyun.com/luo123n/article/details/48239963http://sebastianruder.com/optimizing-gradient-descent/index.html#gradientdescentvariants原创 2016-09-18 15:41:42 · 335 阅读 · 0 评论 -
深度学习调参技巧
近两年论文基本都用同样的参数设定:epoch迭代几十到几百次。sgd,mini batch size从几十到几百。步长0.1,weight decay取0.005,momentum取0.9。dropout加relu。weight用高斯分布初始化,bias全初始化为0。最后,输入特征和预测目标都做好归一化。http://chenrudan.github.io/bl原创 2016-06-15 11:10:03 · 2224 阅读 · 0 评论 -
社交网络研究公共数据
https://cn.aminer.org/influencelocality ----from "Social Influence Locality for Modeling Retweeting Behaviors"http://an.kaist.ac.kr/traces/WWW2010.htmlhttp://www.kddcup2012.org/c/kddcup20原创 2016-08-27 10:14:46 · 895 阅读 · 0 评论 -
机器学习中的矩阵分解方法
基于郭栋老师的教学PPT,配上相关paper和资料,做到对矩阵分解技术有个大致了解。一个假设:数据由有限的潜在因子决定,数据样本的观测值是潜在因子的一个映射。矩阵分解发展历史:经典的方法PCA,SVD这里就不说了,2003年提出的topic model LDA,听说当时可是火了一把。重点推荐几种矩阵分解方法:概率矩阵分解(PMF),由深度学习大牛Rusl原创 2017-07-28 13:50:48 · 3689 阅读 · 0 评论