
coursera机器学习
山野村夫_pro
JUST DO IT.
展开
-
机器学习_吴恩达_week1(机器学习分类+单变量线性回归)
目录一、绪论1.1欢迎1.2机器学习是什么?1.3监督学习1.4非监督学习二、单变量线性回归2.1模型表示2.2代价函数2.3代价函数的直观理解I2.4代价函数的直观理解II2.5梯度下降2.6梯度下降的直观理解2.7梯度下降的线性回归三、线性代数回顾一、绪论1.1欢迎Machine Learning...原创 2017-11-18 22:12:27 · 614 阅读 · 0 评论 -
机器学习_吴恩达_week2(多变量线性回归)
目录一、多变量线性回归1.1多维特征1.2梯度下降在多维特征中应用1.3梯度下降实践1:特征缩放1.4梯度下降实践2:学习率1.5多特征和多项式回归1.6正规方程1.7正规方程及不可逆性(选修)二、octave与Matlab介绍及安装三、Octave/Matlab教程一、多变量线性回归1.1多维特征一句话总结:多变量线性回归...原创 2018-01-01 11:43:45 · 296 阅读 · 0 评论 -
机器学习_吴恩达_week8(聚类与降维)
目录一、聚类1.1 无监督学习1.2 k-means算法1.3 优化目标1.4 随机初始化1.5 选择聚类数二、降维2.1 动机1:数据压缩2.2 动机2:数据可视化2.3 主成分分析问题规划12.4 主成分分析问题规划22.5 主成分数量选择2.6 压缩重现2.7 应用PCA的建议一、聚类1.1 无监督学习1.2 k-m...原创 2019-06-26 14:42:08 · 283 阅读 · 0 评论 -
机器学习_吴恩达_week7(支持向量机SVM)
目录一、SVM1.1 优化目标1.2 大间隔的直观理解1.3 大间隔分类器的数学原理1.4 核函数11.5 核函数21.6 使用SVM一、SVM1.1 优化目标从LR入手,一步一步修改成SVM的优化目标:SVM的代价函数:左图中,粉色曲线由两部分组成:大于1时是直线,小于1时是斜线(斜线斜率不是很重要)右图中,粉色曲线由两部分组成:大于-1时是斜线...原创 2019-06-28 15:40:55 · 250 阅读 · 0 评论