
机器学习
文章平均质量分 93
悠悠豆
这个作者很懒,什么都没留下…
展开
-
机器学习第一周
引言 机器学习定义 来自 1998 年 Tom Mitchell 的定义:一个程序被认为能从经验E中学习,解决任务T,达到性能度量值P,当且仅当,有了经验E后,经过P评判,程序在处理T时的性能有所提升。 吴恩达视频中提到的西洋下棋程序中: T : 下棋 P:赢得比赛的概率 E:上万次的练习获得的经验 ===================== What is Machine Lea原创 2017-12-12 22:48:38 · 589 阅读 · 0 评论 -
机器学习第二周
多变量线性回归多维特征(Multiple Features)前面讲过单变量(只有一维特征)的输出函数 h(x) 可以表示为:h(x) = θ0 + θ1x 。对于多维特征而言,其输出函数 h(x) 可以表示为:h(x) = θ0 + θ1x1 + θ2x2 + … + + θnxn。这里为了让公式简单一点,就令x0 = 1,这样 h(x) 就可以表示为:h(x) = θ0x0 + θ1x1 + θ2原创 2017-12-17 16:13:04 · 580 阅读 · 0 评论 -
机器学习第三周
分类要尝试分类,一种方法是使用线性回归,并将所有大于0.5的预测值映射成1,小于0.5的所有预测值映射成0,但是这种方法效果不佳,因为分类实际上不是线性函数。所以我们在接下来的要研究的算法就叫做逻辑回归算法,这个算法的性质是:它的输出值永远在0到 1 之间。逻辑回归分类前面提到线性回归分类模型是个线性函数,它的预测值可能会超过[0,1]的范围,不适合用于二分类或者多分类模型。 逻辑回归:该模型的输原创 2017-12-24 20:54:02 · 784 阅读 · 0 评论 -
机器学习第四周
神经网络模型表示1 先来看看大脑里面神经元结构图,如下图: 会发现神经元的中心部分就相当于我们的 h(x),神经元的“树突”等效于 input 端的输入特征 xn,“轴突”等效于 output。 再来看看前面讲了两种模型:线性回归模型跟逻辑回归模型,其中都绕不开一个 hθ(x) ,这里的 x 是我们 input 的特征,hθ(x) 的值是我们模型 output 出来的值。下图是一个逻辑回归模型原创 2018-01-16 22:47:52 · 503 阅读 · 0 评论 -
机器学习第五周
代价函数和反向传播 代价函数 首先引入一些新的我们即将讨论的变量名称: L = 网络的总层数 sjsjs_j = 网络第 j 层的单元节点数(不包含偏置项) K = 最后一层输出的单元数 m = 样本的个数 在神经网络中,我们可能有很多输出节点,我用 hθ(x)khθ(x)kh_\theta(x){_k} 表示 kthkthk^{th} 的输出。逻辑回归中,我们只有一个输出 y,因...原创 2018-03-01 23:16:07 · 647 阅读 · 0 评论