
人工智能学习笔记
文章平均质量分 93
cyoushika_Nara
这个作者很懒,什么都没留下…
展开
-
【从零开始的机器学习】-07 分类问题与逻辑回归
导语如我们在第二章中提到的,有监督学习主要分为回归问题和分类问题。之前的章节我们已经介绍过一元线性回归问题,多元线性回归问题,从本章开始我们将进入另一个方向——分类问题 (Classification)。1. 什么是分类问题?分类问题大致分为:二元分类和多元分类。二元分类就是判断”是或不是”的问题,比如判断一张图片里的动物是否为猫,判断一封邮件是否为垃圾邮件;而多元分类则是从多个选项中判断是哪一个,比如判断一张图片里的数字是几。2. 是否可以用线性回归来解决?3. 二元分类3.1 假设函数3.原创 2022-01-28 18:37:39 · 1255 阅读 · 0 评论 -
【从零开始的机器学习】-06 多元线性回归问题
导语1. 什么是多元线性回归问题?2. 多元线性回归模型表达式3. 多元线性回归模型与梯度下降法4. 特征缩放5. 如何对梯度下降法Debug?6. 正规方程求解最优参数7. 梯度下降法 vs 正规方程8. 多元多次多项式线性回归...原创 2022-01-17 12:41:24 · 459 阅读 · 0 评论 -
【从零开始的机器学习】-05 线性代数基础
导言在【从零开始的机器学习】-04 梯度下降法中,我们介绍了梯度下降法的原理,以及如何利用梯度下降法优化一个直线模型(自变量只有1个)的参数,但是在面对现实中的问题是,我们发现自变量往往不止1个,可能是几个或者十几个,甚至成百上千个。对于更为一般的多元线性回归问题,我们要怎么去处理呢?在回答这个问题之前,我们有必要复习一些线代的基础知识,方便我们之后实现多元线性回归问题的机器学习。1. 矩阵(Matrix)矩阵是由[]包围的包含数字的矩形,比如:A=[1234]A=\left[\begin{matr原创 2022-01-14 21:09:13 · 1172 阅读 · 0 评论 -
【从零开始的机器学习】-04 梯度下降法
前导在【从零开始的机器学习】-03 一元线性回归与代价函数中,我们讨论了,“如果有一些房屋的面积数据和对应的房价,如何去预测一个房屋的价格”这一问题,为了更清晰地观察房屋面积与房价的关系,我们将数据投放到散点图中(如下)。通过观察,我们发现房屋价格与房屋面积呈正相关(即,房屋面积越大,房价越贵)。之后,为了预测房屋价格,我们选择用直线来拟合训练数据。需要注意的是,选择用什么模型并不是固定的,不同的问题有不同的适合的模型,选择适合的模型,并将参数最优化是我们机器学习的工作之一。我们说,只有一个自变量x(原创 2022-01-13 15:26:23 · 525 阅读 · 0 评论 -
【从零开始的机器学习】-03 一元线性回归与代价函数
1. 例子:假设我们有一些房屋的数据,然后想要通过这些数据来估计某栋房子的价格。如果我们决定只使用房屋的面积来预测,如何建立一个预测模型呢?假设我们的数据是:房屋面积 x(m2m^{2}m2)房价 y(万元)1307006532080392954807539012565445243904311055917342112851866281854009128162325为原创 2022-01-12 19:26:03 · 584 阅读 · 0 评论 -
【从零开始的机器学习】-02 有监督学习及代价函数
如我们再上一章里讲的,机器学习分为两种:有监督学习(supervised learning)和无监督学习(unsupervised learning)。本章将介绍有监督学习以及它的评价标准: 代价函数(cost function)。1. 有监督学习朴素地讲,所谓有监督学习就是指“用来学习的资料都带答案,根据学习资料和答案,我们建立出一套“XX情况下的答案是OO”逻辑模型,之后去考试,看看面对资料之外的题我们答题的正确率有多高,再根据正确率对逻辑进行调整”的过程。有监督学习的具体流程如下: 我们将原创 2022-01-12 17:18:49 · 328 阅读 · 0 评论 -
【从零开始的机器学习】-01 什么是“机器学习”?
背景对于大众而言,“机器学习”、“深度学习”、“神经网络”等词汇更多是从AlphaGo大战围棋高手之后开始进入人们的视野。但实际上,机器学习的历史已经很久了。上世纪1959年,Arthur Lee Samuel第一次提出了“机器学习”这一词汇,并实现了世界上第一个自我学习的程序,将机器学习的概念和人工智能最早的demo带给了世界。经过几十年的发展,如今人类的生活、工作、科研等方方面面,大到对宇宙的探索和数据分析,小到某个App给用户的定制推送,其背后都有机器学习、深度学习等方法实现的人工智能的身影。那么,原创 2022-01-11 22:25:04 · 756 阅读 · 0 评论