
吴恩达-机器学习笔记
仰望星空1994
这个作者很懒,什么都没留下…
展开
-
吴恩达-机器学习笔记(1)-模型表示、损失函数、梯度下降
无监督学习:一个程序被认为能从经验E中学习,解决任务T,达到性能度量值P,当且仅当,有了经验E,经过P的评判,程序在处理T时性能有所提升。 A computer program is said to learn from experience E with respect to some task T and some performance measure P , if its perfor...原创 2018-08-10 11:00:57 · 2244 阅读 · 1 评论 -
吴恩达-机器学习(10)-大数据集机器学习
Large Scale machine learningLearning with large datasets当数据量非常的大的时候,我们应该从中选取少量的数据,使用我们的算法进行计算,绘制学习曲线,如果学习曲线是左边的时候说明算法高方差,这时候提高数据量,就可以提高性能,如果是右边的图形,说明算法高偏差,增加数据量并不会有什么改变Stochastic Gradient Descent...原创 2018-09-28 21:35:50 · 641 阅读 · 0 评论 -
吴恩达-机器学习(9)-异常检测、协同过滤
Density EstimationProblem Motivation异常检测:给定m个假定正常的数据集,对x的分布概率建模,建立概率模型之后,对于新的数据概率低于阈值就是异常的异常检测的应用:欺诈检测产品的质量控制数据中心的计算机监测Gaussian Distribution样本出现的概率符合下列公式就是高斯分布,其中σ\sigmaσ是标准差,μ\muμ是均值p(x)...原创 2018-09-27 16:57:52 · 519 阅读 · 0 评论 -
吴恩达-机器学习(8)-K-Mean、PCA
###Clustering####K-Mean Algorithm下图中已经有没有标签的点,现在需要分为两类进行k-Mean算法1、随机选取两个聚类中心,需要分为几类就选取几个聚类中心2、遍历所有的点,根据点到聚类中心的距离来判断将该点分到哪个聚类中3、然后将红色的聚类中心移动到所有红色点的均值位置,蓝色的聚类中心移动到所有蓝色点的均值位置重复2、3过程直到收敛K-Mean中...原创 2018-09-25 20:05:36 · 319 阅读 · 0 评论 -
吴恩达-机器学习(6)-评估学习算法、偏差与方差、构架垃圾邮件分类器、处理倾斜数据
Evaluating a Learing AlgorithmDecidding what to try next当预测新的数据集,效果很差时: 1. 获取更多的训练数据 2. 减小特征数量 3. 尝试获取附加特征 4. 尝试添加多项式特征 5. 尝试减小λλ\lambda 6. 尝试增加λλ\lambda机器学习诊疗法:可以帮助你知道机器学习算法是否在工作,而且可以知道...原创 2018-09-11 10:55:57 · 693 阅读 · 0 评论 -
吴恩达-机器学习(7)-SVM
Large Margin ClassificationOptimization objective在逻辑回归中,z对应的h(θ)h(θ)h(\theta)的值 在支持向量机中,把log函数换为图中蓝色线所代表的cost函数 支持向量机中的代价函数 Large Margin Intuition 假设C=100000,我们就希望蓝色款中的式子等于0 当y=1时为了...原创 2018-09-13 17:13:34 · 322 阅读 · 0 评论 -
吴恩达-机器学习(5)-反向传播
Cost Function and BackpropagationCost FunctionL:代表神经网络的层数 SlSlS_l:第l层的神经元个数 K:输出神经元的个数 神经网络的代价函数 Backpropagation Algorithm使用梯度下降,最重要的就是要计算偏导 δ(l)jδj(l)\delta^{(l)}_j表示第l层第j个节点的误差 ...原创 2018-09-03 15:33:09 · 480 阅读 · 0 评论 -
吴恩达-机器学习(4)-神经网络
Neural NetWorkingNon-linear Hypotheses 当特征数量大时,在进行逻辑回归和线性回归时要包含所有的相关项,二项式的个数以n^2的量级增长,最终的结果可能过拟合,同时计算量也过大。Model Representationx0x0x_0为偏置单位,总是等于1,x是输入,hθ(x)hθ(x)h_\theta(x)是输出,θθ\theta是权重即...原创 2018-08-29 10:13:00 · 250 阅读 · 0 评论 -
吴恩达-机器学习(3)-分类、逻辑回归、多分类、过拟合
Classification and RepresentationClassification为了尝试分类,一种方法是使用线性回归,并将所有大于0.5的预测映射为1,而所有的预测都小于0.5映射为0。然而,这种方法并不适用,因为分类实际上并不是一个线性函数。 下面是个肿瘤的例子,y=1就是恶性,y=0就是良性,当使用一条直线去拟合时,可以尝试将输出阈值设为0.5,大于0.5就预测y=...原创 2018-08-27 11:09:35 · 922 阅读 · 0 评论 -
吴恩达-机器学习(2)-多元线性回归、正规方程
Multivariate Linear Regression n:特征的个数 x(i)x(i)x^{(i)}:第i个训练样本的输入特征值 x(i)jxj(i)x^{(i)}_j:第i个训练样本的第j个特征值 当有多个特征的时候,假设函数就是如下公式,其中x0x0x_0=1 当有多个特征时,代价函数如下: J(θ0,θ1...θn)=12m∑i=1m(hθ(x(i))−y(i))...原创 2018-08-17 10:53:38 · 469 阅读 · 0 评论 -
吴恩达-机器学习(11)-文字识别
Application example: Photo OCRProblem description and pipelinePhoto OCR表示照片光学字符识别,主要解决的问题就是让计算器识别照片中的文字主要步骤Sliding windows由于行人的形状大小相似,以行人检测为例子来说明滑动窗在图片中选取一小块,使用训练好的分类器进行检测,下面是以8236为例,然后滑动窗口继续进...原创 2018-10-08 10:35:07 · 782 阅读 · 0 评论