
吴恩达机器学习
对吴恩达的机器学习课程进行详细解释。
课程地址:https://www.coursera.org/learn/machine-learning/home/info
九州殊口二
这个作者很懒,什么都没留下…
展开
-
一、初识机器学习
1.监督学习监督学习算法是指,给算法一个数据集,其中包含正确答案,让他预测。在一个有监督的学习任务中,数据样本将包含一个目标属性 y,也就是所谓的真值(ground truth)。我们的任务是通过学习得到一个函数 F,它接受非目标属性 X,并输出一个接近目标属性的值,即 F(X) ≈y。目标属性 y 就像指导学习任务的教师,因为它提供了一个关于学习结果的基准。所以,这项任务被称为有监督学习。...原创 2019-06-19 11:28:11 · 209 阅读 · 0 评论 -
二、单变量线性回归
1.模型描述:之所以是监督学习,是因为每一个例子都有一个“正确的答案”回归问题:回归是指我们预测一个具体的数值输出分类问题:预测离散值输出数据集函数的作用:预测y是关于x的线性函数2.代价函数有助于弄清楚如何把最有可能的直线与数据拟合假设函数:h(x)=θ0+θ1x如何选择模型参数θ0和θ1?使h(x)最接近样本,要尽量减少假设函数的输出与试剂样本值的差的平方和的2m分之一,即...原创 2019-06-19 11:27:20 · 474 阅读 · 0 评论 -
五、多变量线性回归
5.多变量线性回归5.1.多功能n代表样本数x^(i)代表第i个样本特征值xj^(i)代表第i个样本特征值的第j个值多变量假设函数多元线性回归用多个变量来预测Y值5.2.多元梯度下降法如何设定假定参数,如何用多元梯度下降法处理多元线性回归?瞅一眼我们的变量第一个是多元代价函数,第二个是参数,第三个是代价函数。梯度下降不断更新每一个θj举个例子,当n=1时的梯度...原创 2019-06-19 11:27:02 · 446 阅读 · 0 评论 -
七、Logistic回归(逻辑回归)
背景:要预测的y是一个离散值,难以用一个直线去拟合就像是判断垃圾邮件,判断恶性肿瘤,要么是,要么不是,像这种,y∈{0,1}但是使用线性回归的话,算法的输出值(假设值)h_θ(x)可能会>1,<0,对此,我们使用Logistic回归使得预测值0<=h_θ(x)<=1,可以把它看作一个分类算法...原创 2019-06-19 11:26:44 · 166 阅读 · 0 评论 -
八、正则化
8.1.过拟合问题正则化:减少过拟合问题什么是过拟合?例子(线性回归):过拟合将在变量过多的时候出现,这时训练出的假设能很好地拟合训练集,所以你的代价函数很可能接近于0,但是你可能会得到上图那样一个曲线,它千方百计地拟合训练集导致它无法泛化到新的样本中(泛化:一个假设模型应用到新样本的能力)。同理举个逻辑回归的例子:减少过拟合的方法有两个:1.减少特征变量的个数(1)人工检查变...原创 2019-06-19 11:25:56 · 117 阅读 · 0 评论 -
九、神经网络学习
9.1.非线性假设当我们预测房价时,或许我们有100个特征向量来构造一个logistic回归函数,如果我们想包含所有的多项式,仅二项式就5000个,这显然不是一个好方法,而且因为项数过多,很有可能出现过拟合。但是如果舍弃太多的数据很有可能出现欠拟合。所以学习复杂的非线性假设时,逻辑回归不是一个好方法,所以我们要学习神经网络。模型展示几个术语:激活函数:非线性函数g(z),g(z)=11...原创 2019-06-19 11:26:12 · 192 阅读 · 0 评论 -
十、神经网络参数的反向传播算法
它能在给定训练集时为神经网络拟合参数。代价函数L表示神经网络的总层数sLs_LsL表示第L层的单元数,不包括偏差单元我们在神经网络中使用的代价函数是逻辑回归中使用的代价函数的一般形式:神经网络的代价函数中不再是有一个逻辑回归输出单元,取而代之的是K个。如果是二元分类问题,K=1。K是输出单元的个数(hθ(x))i(h_\theta(x))_i(hθ(x))i表示第i个输出。也...原创 2019-06-19 11:26:22 · 771 阅读 · 0 评论