
机器学习
king_jie0210
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Stanford机器学习 第三周:逻辑回归与正则化
一、逻辑回归 1.1 分类问题 判断一封电子邮件是否是垃圾邮件;判断一次金融交易是否是欺诈;判断肿瘤是恶性的还是良性的等属于分类问题。 Eg:预测病人的肿瘤是恶性(malignant)还是良性(benign),用线性回归的方法拟合一条直线如图 当hθ大于等于0.5时,预测 y=1;当hθ小于0.5时,预测 y=0,这样的一个线性模型似乎能很好地完成分类任务。假使我们又观测到一个原创 2017-03-18 16:06:34 · 998 阅读 · 0 评论 -
Stanford机器学习 第一周:机器学习概念及单变量线性回归
一、引言 1.1 机器学习定义 提问: 1.2 监督学习 Eg1: 预测房价的例子:横轴表示房子的面积,单位是平方英尺,纵轴表示房价,单位是千美元。那基于这组数据,假如你有一个朋友,他有一套750平方英尺房子,现在他希望把房子卖掉,他想知道这房子能卖多少钱。 从图中可以看出直线拟合数据,预测这套房子可能卖$150, 000;二次函数来拟合数据,预测房子可能卖$2原创 2017-03-06 16:15:43 · 725 阅读 · 0 评论 -
Stanford机器学习 第二周:多变量线性回归
1 多维特征(Multiple features) 假设房价与图中四个变量(特征)有关,此时的假设函数为: 更具一般性的,假设与n个变量有关 2 多变量梯度下降 下图分别为单变量梯度下降与多变量梯度下降算法: 3 梯度下降法实践1:特征收缩(Feature Scaling) 特征收缩是在处理多维变量(特征)时,确保这些变量具有相近的尺度。下图原创 2017-03-09 17:42:34 · 922 阅读 · 0 评论 -
Stanford机器学习 第四周:神经网络表述
1 Non-linear hypotheses 之前学的,无论是线性回归还是逻辑回归都有这样一个缺点,即:当特征太多时,计算的负荷会非常大。 eg: 之前我们已经看到过,使用非线性的多项式项,能够帮助我们建立更好的分类模型。假设我们有非常多的特征比如100个,我们希望用这100个特征来构建一个非线性的多项式模型,即便我们只采用两两特征的组合(x1x2+x1x3+x1x4+...+x2原创 2017-03-28 18:28:57 · 399 阅读 · 0 评论 -
Stanford机器学习 第四周:神经网络学习
1 代价函数 神经网络分类表述: 代价函数(cost function) 2 反向传播算法 得到了神经网络的代价函数后,接下来要做的就是找到参数Θ使J(Θ)取得最小值: 假设整个训练集只有一个训练样本(x,y),反向传播算法: Forward propagation: Backpropagation(反向传播): 之所以叫反向传播是因为我们是从输出层原创 2017-03-28 18:31:20 · 697 阅读 · 0 评论