
吴恩达ML
cheney康
中山大学计算机学院研究生
展开
-
吴恩达 机器学习笔记六(lecture 6)(逻辑回归LR)
逻辑回归(Logistic Regression) 1、classification eg.垃圾邮件识别、交易是否是欺诈、肿瘤类别 2、Hypothesis Representation 很多时候,我们希望我们的预测值输出范围在0~1之间, 可以加入一个sigmoid函数(可以称为逻辑函数),类似神经网络的激活函数,输出范围就控制在了0~1之间原创 2017-11-30 23:54:35 · 2606 阅读 · 0 评论 -
吴恩达 机器学习笔记七(lecture 7)(正则化Regularization)
正则化 Regularization 1、过拟合 overfitting eg1:线性回归 图一:欠拟合,高偏差 图三:过拟合,高方差(一般在变量很多的时候发生,这种时候训练出的方程总能很好拟合训练数据,但是对于新的样本数据不能体现出很好的繁华能力)原创 2017-12-01 17:21:12 · 4720 阅读 · 0 评论 -
吴恩达 机器学习笔记八(lecture 8)(神经网络一)
神经网络一(Neural Networks)表层结构 1、Non-linear hypotheses 用逻辑回归算法来做这个分类的话,首先要构造逻辑回归函数。这个例子只有两个特征值,但是当我们包含多个特征值的时候,这种分类器就很局限。 当我们识别一辆车的时候,我们是根据图片每个部位的灰度值来识别的。假设我们有一张50x50像素的图片,那么他就有2500个灰度值,用之前原创 2017-12-02 22:45:50 · 603 阅读 · 0 评论 -
吴恩达 机器学习笔记二(lecture 2)(损失函数、梯度下降)
一、单变量的LR模型 二、损失函数(cost function) 三、梯度下降(Gradient descent) 梯度下降法基础知识原创 2017-11-22 21:54:14 · 3438 阅读 · 0 评论 -
吴恩达 机器学习笔记三(lecture 3)(矩阵和向量)
矩阵和向量(Matrices and vectors) m * n的矩阵就是指m行(横向)n列(纵向),Aij是指第i行,第j个元素。一般用大写来表示矩阵。矩阵的运算也比较简单,矩阵求和就是对应位置求和即可,所以维数不同的矩阵不可以求和,矩阵的倍数就是所有位置乘以相应的倍数。还有矩阵的逆(可以用一些工具来求,如Octave 和Matlab),矩阵的转置这些都比较简单。原创 2017-11-23 16:32:35 · 1207 阅读 · 0 评论 -
吴恩达 机器学习笔记一(lecture 1)(监督、无监督学习)
机器学习概述 主流应用:自然语言处理(NLP:Natural Language Processing)、计算机视觉(CV:Computer Vision) 机器学习定义: Tom Mitchell(1998):“A computer program is said to learn from experience E with respect to some task T an原创 2017-11-21 22:00:10 · 802 阅读 · 1 评论 -
吴恩达 机器学习笔记四(lecture 4)(多特征值,梯度下降与Normal equation)
线性回归处理多个特征值(Linear Regression with multiple variables) 1、多特征值线性回归的假设函数形式 2、梯度下降 3、标准方程法(Normal equation) 4、梯度下降和Normal equation的比较 假设原创 2017-11-25 17:25:41 · 1852 阅读 · 0 评论 -
吴恩达 机器学习笔记五(lecture 5)(Octave 使用)
请移步 Octave 入门原创 2017-11-28 11:16:14 · 1664 阅读 · 0 评论