
机器学习
文章平均质量分 59
个人的一点小笔记
无主的程旭猫
又菜又爱学
展开
-
吴恩达机器学习笔记(四)
多变量线性回归前面在上一篇笔记中,讨论了单变量/特征的回归模型,这一篇我们将重点将多变量(多维特征)线性回归问题吴恩达机器学习笔记(二)_有主的程旭猫的博客-优快云博客单变量线性回归以房屋交易问题为例:给定的数据集是这样的𝑚 代表训练集中实例的数量 𝑥 代表特征/输入变量 𝑦 代表目标变量/输出变量 (𝑥, 𝑦) 代表训练集中的实例 (𝑥(𝑖), 𝑦(𝑖)) 代表第𝑖 个观察实例 h代表学习算法的解决方案或者函数,也成为了称为假设(hypothesis)那么对于房屋的交易价格作为输出变量y,x代表原创 2022-05-10 19:10:31 · 291 阅读 · 0 评论 -
吴恩达机器学习笔记(一)
监督学习:给学习算法一个数据集,这个数据集 由“正确答案”组成。其基本思想是,我们数据集中的每个样本都有相应的“正确答案”。再根据这些样本作出预测典型的监督学习:1.线性回归问题: 预测房价2.逻辑回归问题: 乳腺癌良性和恶性的判断无监督学习:无监督学习中给定的数据集没有任何的标签,已知数据集却不知道如何来处理,也不知道每个数据点是什么。典型的无监督学习:1.聚类算法:谷歌新闻的分组,基因问题的处理...原创 2022-05-10 16:10:33 · 309 阅读 · 0 评论 -
吴恩达机器学习笔记(二)
单变量线性回归以房屋交易问题为例:给定的数据集是这样的𝑚 代表训练集中实例的数量 𝑥 代表特征/输入变量 𝑦 代表目标变量/输出变量 (𝑥, 𝑦) 代表训练集中的实例 (𝑥(𝑖), 𝑦(𝑖)) 代表第𝑖 个观察实例 h代表学习算法的解决方案或者函数,也成为了称为假设(hypothesis)那么对于房屋的交易价格作为输出变量y,x代表输入变量h函数有一种可能表达式:ℎ𝜃(𝑥) = 𝜃_0 + 𝜃_1𝑥,因为输入变量x只有一个,我们称之为单变量线性回归问题。.原创 2022-05-10 16:46:19 · 228 阅读 · 0 评论 -
吴恩达机器学习笔记(三)
梯度下降的线性回归梯度下降算法和线性回归算法比较如图:对于线性问题运用梯度下降算法,关键就在于代价函数的导数这个算法有时也被成为批量梯度下降算法,这里的批量指在每一步我们更新的𝜃都用到所有的训练样本,当然有时对于其他类型的梯度下降罚,不是这种“批量”型的,不需要考虑整个训练集,而是只关注其中一些子集,这个我们以后会学到。正规方程可以在不需要多步梯度下降的情况下,也能解出代价函数𝐽的最小值,这是另一种称为正规方程(normal equations)的方法。实际上在数据量较大的.原创 2022-05-10 17:07:27 · 216 阅读 · 0 评论