
机器学习
文章平均质量分 61
Alex267
这个作者很懒,什么都没留下…
展开
-
随机梯度下降和批量梯度下降的简单代码实现
最近刚刚开始看斯坦福的机器学习公开课,第一堂课讲到了梯度下降,然后就简单实现了一下。本人学渣一枚,如有错误,敬请指出。 /** * Created by Administrator on 2016/4/16 0016. */ public class GradientDescent { private static double[][] data = {原创 2016-04-16 21:36:39 · 807 阅读 · 0 评论 -
浅谈归纳偏置
本人学渣一枚,如有错误,敬请指出。 《机器学习》2.7节谈到了归纳偏置,我不敢说自己对归纳偏置理解的很透彻,但这里简单记录一下我对归纳偏置的理解,以后我也会继续补充。 本节从假设空间可能不包括目标概念引出了无偏学习,无偏学习的假设空间一定包含目标概念。然后讲到无偏学习的无用性,即如果采用无偏学习,那么在遇见一个训练集中不存在的实例时,无偏学习器无法对其分类。换句原创 2016-04-18 00:10:51 · 5851 阅读 · 0 评论 -
SOFTMAX 的python实现
softmax 的python实现softmax的原理可以在很多地方看见,这里就不详述了。这份代码采用SGD得到theta,有点麻烦的就是梯度公式如何计算,我觉得这里讲的还比较详细数据集以前看过一本Neural Network and Deep Learning, 这里面的例子使用的是mnist,并且作者已经写好data_loader,于是我就直接用了作者的 data_loader. 数据是手写字原创 2016-07-12 00:19:54 · 1793 阅读 · 0 评论 -
核密度估计介绍(An introduction to kernel density estimation)
核密度函数介绍 原文地址: http://www.mvstat.net/tduong/research/seminars/seminar-2001-05/ This talk is divided into three parts: first is on histograms, on how to construct them andtheir properties. Next are kernel densi转载 2016-09-09 00:34:35 · 1525 阅读 · 0 评论