
吴恩达《机器学习》笔记
关关在干嘛
这个作者很懒,什么都没留下…
展开
-
【吴恩达机器学习笔记】逻辑回归
目录 前言 一、逻辑回归算法介绍 背景介绍: 逻辑回归算法: 二、算法假说表示 三、决策边界 四、逻辑回归算法的代价函数 四、简化、推导代价函数 五、逻辑回归与多类别分类 前言 在本节,我们开始讨论分类问题。 一、逻辑回归算法介绍 背景介绍: 在分类问题中,我们要预测的变量 ???? 是离散的。在分类问题中,我们尝试预测的是结果是否属于某一个类(例如正确或错误)。分类问题的例子有:判断一封电子邮件是否是垃圾邮件;判断一次金融交易是否是欺诈;之前我们也谈到了肿瘤分类问题的例子,区别原创 2020-10-28 16:56:07 · 588 阅读 · 2 评论 -
【吴恩达机器学习笔记】代价函数(一)
目录 前言 一、单变量线性回归问题 二、建模误差 三、代价函数 平方和误差函数: 平均平方和误差: 代价函数: 四、直观理解代价函数一 五、直观理解代价函数二 三维图像: 等高线图: 总结 前言 本栏目主要记录吴恩达老师的《机器学习》课程的学习笔记。本章学习代价函数相关知识。 一、单变量线性回归问题 首先先看一个例子,假设我们需要使用一个包含房屋尺寸与售卖价格数据集,来预测房屋的售价。我们首先要构建一个模型来预测,这里我们假设是最基础的线性情况,那么表示如下: .原创 2020-10-13 21:17:39 · 622 阅读 · 0 评论 -
【吴恩达机器学习笔记】正规方程
前言 之前我们都在讨论梯度下降算法,但对于一些线性问题来说,正规方程是更好的解决方法。 一、正规方程 正规方程是通过求解下面的方程来找出使得代价函数最小的参数的: 假设我们的训练集特征矩阵为 ????(包含了 ????0 = 1)并且我们的训练集结果为向量 ????,则利用正规方程解出 向量 ???? = 推导过程分析: 前提我们要了解以下几个方程: 多变量线性回归问题的代价函数为: 其中对于单个样本的h(x): 设有m个训练实例,每个实例有n个特征,则训练实例集为: 其中表示第原创 2020-10-20 18:53:00 · 613 阅读 · 0 评论 -
【吴恩达机器学习笔记】多变量线性回归
前言 目前为止,我们探讨了单变量/特征的回归模型,现在我们对房价模型增加更多的特征,例如房间数楼层等,构成一个含有多个变量的模型,引出多变量线性回归问题。 一、多维特征 增添更多特征后,我们引入一系列新的注释: ???? 代表特征的数量 代表第 ???? 个训练实例,是特征矩阵中的第????行,是一个列向量( vector)。 代表特征矩阵中第 ???? 行的第 ???? 个特征,也就是第 ???? 个训练实例的第 ???? 个特征。 支持多变量的假设 ℎ 表示为: ℎ????(????)原创 2020-10-19 19:50:06 · 472 阅读 · 0 评论 -
【吴恩达机器学习笔记】梯度下降算法
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言 一、pandas是什么? 二、使用步骤 1.引入库 2.读入数据 总结 前言 延续上文,本节将介绍梯度下降算法来计算代价函数的最小值。 一、梯度下降算法 想象一下你正站立在你想象的公园——这座红色山某一点上,在梯度下降算法中,我们要做的就是旋转 360 度,看看我们的周围,并问自己要在某个方向上,用小碎步尽快下山。这些小碎步需要朝什么方向?如果我们站在山坡上的这一点,你看一下周围..原创 2020-10-16 21:21:56 · 420 阅读 · 2 评论