
吴恩达机器学习课程
文章平均质量分 93
旨在从此课程入手,学习机器学习,打下基础,方便学习后续课程
晊恦X.
这个作者很懒,什么都没留下…
展开
-
监督学习与无监督学习
中的应用,许多公司拥有庞大的信息数据库,对于一个客户数据集,你能否自动找出不同的市场细分,并自动将你的客户分到不同的细分市场,从而能够自动高效地在不同的细分市场中进行销售,这也是无监督学习,因为我们有全部的客户数据,但我们预先并不知道有哪些细分市场,而且对于我们数据集中的客户,我们也不能预先知道谁属于细分市场1,谁又属于细分2等等,但我们必须让算法自己从数据中发现这一切。在这个例子中,我们只使用了一个特征或者属性,即肿瘤的大小,来预测肿瘤是良性的还是恶性的,在其他机器学习问题中,我们会有多个特征。原创 2025-04-07 14:36:44 · 719 阅读 · 0 评论 -
单变量线性回归
梯度下降有一个有趣的特点:第一次运行梯度下降法时,我们是从某个点开始的,如果我们从初始点右边一点的位置开始 ,使用梯度下降算法,重复上述的步骤,梯度下降算法会将你带到右边的第二个局部最优处,这是与之前完全不同的局部最优点。上面的例子,我们只有参数w,绘制出来的图形是J(w)的函数,但是现在我们有参数w和b,因此代价函数图形变得复杂了。根据为这些参数选择不同的值,会得到不同的直线,我们想找到w和b的值,使得这条直线能很好的拟合训练数据,为了衡量选择的w和b的值对训练数据的拟合程度,用一个代价函数。原创 2025-04-08 15:10:59 · 815 阅读 · 0 评论 -
多变量线性回归
但是现在,我们不仅有房屋面积作为预测房价的一个特征,我们还知道房间数、楼层数以及房子的年代等等,这给了我们更多的信息用来预测房价,模型用(x1,x2,x3,x4)来表示特征,y表示预测的房价。这里的x轴表示梯度下降算法的迭代次数,随着梯度下降算法的运行,可能会得到这样一条曲线,这条曲线显示的是:梯度下降的每步迭代后,代价函数的值。值,比如0.001 ,0.003, 0.01,0.03, 0.1,0.3,1 ,然后对于这些不同的。n -------- 特征量的数目,在这个例子中,n=4。原创 2025-04-08 23:57:09 · 904 阅读 · 0 评论 -
监督学习:分类
线性回归不仅可以预测0和1的值,它还可以预测在0和1之间的数字,甚至大于1或小于0的数字。这个特定的代价函数是在统计学中使用一种最大似然估计的统计原理推导出来的,这是统计学中,关于如何高效找到不同模型参数的一个想法。假设下图是你的数据集,输入特征x是房子大小,y是房价,你可以使用线性函数拟合这组数据,但可能并不是一个很好的模型,因为没有很好的拟合数据。(2)学习算法有一个非常强烈的偏见,认为房价完全和面积成线性关系,尽管数据可能与此相反,导致它拟合了一条与数据吻合不佳的直线,从而导致数据欠拟合。原创 2025-04-14 00:37:50 · 1037 阅读 · 0 评论