机器学习
文章平均质量分 68
czhuaa
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Normal Equations 的由来
Normal Equations 的由来假设我们有m个样本。特征向量的维度为n。因此,可知样本为{(x(1),y(1)), (x(2),y(2)),... ..., (x(m),y(m))},其中对于每一个样本中的x(i),都有x(i)={x1(i), xn(i),... ...,xn(i)}。令 H(θ)=θ0+ θ1x1 +θ2x2+... + θnxn,则有若希望H(转载 2015-10-23 16:51:48 · 868 阅读 · 0 评论 -
机器学习中代价函数选择的数学推导
在遇到线性回归问题时,我们总是令 。可是我们为什么这样选择代价函数呢?我们提到过是为了使目标变量(指 )的真实值和预测值的距离最小,想想也算合理。但是本篇博文将从概率的角度解释为什么这么选择代价函数,相信大家看完之后就会明白这个选择之后蕴含的更加深层次的原因。 首先,让我们假设:输入变量和目标变量满足等式 ,其中误差 表示在建模过程中没有考虑到的,但是对预测结果有影响的因素或转载 2015-10-23 14:29:14 · 1313 阅读 · 0 评论
分享