
吴恩达机器学习
文章平均质量分 94
吴大大的笔记总结
山野村夫_pro
JUST DO IT.
展开
-
机器学习_吴恩达_week8(聚类与降维)
目录一、聚类1.1 无监督学习1.2 k-means算法1.3 优化目标1.4 随机初始化1.5 选择聚类数二、降维2.1 动机1:数据压缩2.2 动机2:数据可视化2.3 主成分分析问题规划12.4 主成分分析问题规划22.5 主成分数量选择2.6 压缩重现2.7 应用PCA的建议一、聚类1.1 无监督学习1.2 k-m...原创 2019-06-26 14:42:08 · 283 阅读 · 0 评论 -
机器学习_吴恩达_week7(支持向量机SVM)
目录一、SVM1.1 优化目标1.2 大间隔的直观理解1.3 大间隔分类器的数学原理1.4 核函数11.5 核函数21.6 使用SVM一、SVM1.1 优化目标从LR入手,一步一步修改成SVM的优化目标:SVM的代价函数:左图中,粉色曲线由两部分组成:大于1时是直线,小于1时是斜线(斜线斜率不是很重要)右图中,粉色曲线由两部分组成:大于-1时是斜线...原创 2019-06-28 15:40:55 · 250 阅读 · 0 评论 -
机器学习_吴恩达_week5(神经网络的学习)
目录一、神经网络的学习1.1 代价函数1.2 反向传播算法1.3 反向传播算法的直观理解1.4 实现注意:展开参数1.5 梯度检验1.6 随机初始化1.7 综合起来1.8 反向传播算法举例:自动驾驶一、神经网络的学习1.1 代价函数代价函数解释:第一部分:偏差部分,相比逻辑回归多了,是因为输出是k向量,每一个都要像LR那样计算一次第二部分...原创 2019-06-21 20:17:31 · 279 阅读 · 0 评论 -
机器学习_吴恩达_week4(神经网络表示)
目录一、神经网络表示1.1 非线性模型1.2 神经元与大脑1.3 模型表示11.4 模型表示21.5 特征和直观解释11.6 样本和直观解释21.7 多类分类问题一、神经网络表示1.1 非线性模型当有两个特征时,逻辑回归模型表现得很好,很多特征呢?假设有100个特征,那么1. 任意两两特征组合,约有5000个,O()2. 任意三个特征组合,约有1...原创 2018-01-21 17:13:35 · 511 阅读 · 0 评论 -
机器学习_吴恩达_week3(LR)
目录一、逻辑回归1.1 分类问题1.2 模型函数1.3 决策边界1.4 代价函数1.5 简化的代价函数与梯度下降1.6 高级优化1.7 多元分类:一对多二、正则化2.1 过拟合问题2.2 代价函数2.3 正则化的线性回归2.4 正则化的逻辑回归一、逻辑回归LR(Logistic Regression)是最流行最广泛的一种分类算法。1....原创 2018-01-14 17:40:42 · 357 阅读 · 0 评论 -
机器学习_吴恩达_week2(多变量线性回归)
目录一、多变量线性回归1.1多维特征1.2梯度下降在多维特征中应用1.3梯度下降实践1:特征缩放1.4梯度下降实践2:学习率1.5多特征和多项式回归1.6正规方程1.7正规方程及不可逆性(选修)二、octave与Matlab介绍及安装三、Octave/Matlab教程一、多变量线性回归1.1多维特征一句话总结:多变量线性回归...原创 2018-01-01 11:43:45 · 296 阅读 · 0 评论 -
机器学习_吴恩达_week1(机器学习分类+单变量线性回归)
目录一、绪论1.1欢迎1.2机器学习是什么?1.3监督学习1.4非监督学习二、单变量线性回归2.1模型表示2.2代价函数2.3代价函数的直观理解I2.4代价函数的直观理解II2.5梯度下降2.6梯度下降的直观理解2.7梯度下降的线性回归三、线性代数回顾一、绪论1.1欢迎Machine Learning...原创 2017-11-18 22:12:27 · 614 阅读 · 0 评论