对机器学习的理解

本文介绍了机器学习的基本原理,包括如何通过标注数据使机器自我学习,使用数学方法拟合函数来解决实际问题,如图片识别等。并通过最小二乘法的例子说明了如何优化参数。

    机器是什么,机器就是电脑、芯片、代码这些东西。让电脑遵循人的指令,完成一件特定的任务从计算机发明那天开始就在研究了,现在的各种编程语言、数据结构和编程算法等都是在做这个。但是它们只能依赖于程序员输入的确定的代码才能 work,也就是说他们不能“自己学习”,这样对于有些问题就很尴尬,比如检测一张图片中有几个人,识别一句话中提到了几个人名,识别一张图片是不是黄图等等。这些任务要是写一个代码,依靠规则去实现,那还是非常困难。但是我们可以换个思路,让我们写代码去实现这些功能很困难,但是让我们去给图片打标签(比如给一批图,人为的打上是不是黄图的标签…)不是很简单的嘛,我们如果能让机器自己从打好标签的图片中自己学习那些是黄图不就万事大吉了嘛。这样看的话,标注的工作就对应了传统写代码中写规则匹配的工作。
    那么有了标注好的图片,怎么让程序学习呢?这一步就需要借助于万能的数学了。如果我们能构造一个拟合函数,这个拟合函数可以拟合训练集,比如这里就是给函数输入各个图片的像素 RGB 值,输出就是是不是黄图。拟合完了之后给定一张没见过的图片也就能用这个函数得到是不是黄图了。
    那么具体是怎么实现这个思路的呢?想一想最小二乘法的做法。举个例子,比如有 100 个点(x0,y0),...,(x100,y100)(x_{0},y_{0}),...,(x_{100},y_{100})x0,y0),...,(x100,y100,我们想用一条直线去拟合它。首先直线的方程就是 y=ax+by = ax+by=ax+b, 其实这里我们只要求出 a 和 b 就行了,a 和 b 的选择有无数多种,我们要选一种最好的。没有量化就没有优化,我们首先要把 “最好的” 这个标准进行量化,在数学上就是选一个目标函数,比较好的一个目标函数就是让每个点到 y 的距离之和最小(图上画圈部分就是每个点的误差,目标就是让每个点的误差加起来最小)。

![这里写图片描述](//img-blog.youkuaiyun.com/20180320144734275?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L3hpbmNoZW4xMTAy/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)

    所以目标函数就是 ∑i=0n∣axi−yi+b∣a2+1\sum_{i=0}^{n}\frac{\left | ax_{i} - y_{i} + b \right |}{\sqrt{a^{2}+1}}i=0na2+1axiyi+b,我们要让它最小。
    但是这样比较难算(点到直线的公式太烦了……),所以我们可以退而求其次,让每个点到 y 的差的和最小,这里只要关注距离,所以可以把一个点的误差写成 ∣xi−(axi+b)∣\left | x_{i}- (ax_{i}+b)\right |xi(axi+b) 。然后把每个点的误差加起来就是我们的目标函数了。我们要让理论值和测试值之间误差最小。

![这里写图片描述](//img-blog.youkuaiyun.com/20180320133511157?watermark/2/text/Ly9ibG9nLmNzZG4ubmV0L3hpbmNoZW4xMTAy/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)

    这样表示的目标函数就是 ∑i=0n∣xi−(axi+b)∣\sum_{i=0}^{n}\left | x_{i}- (ax_{i}+b)\right |i=0nxi(axi+b)
    但是绝对值是个令人头痛的东西,是一个分段函数并且还有不可导的点。所以我们用平方代替,最终的目标函数是 ∑i=0n(xi−(axi+b))2\sum_{i=0}^{n} (x_{i}- (ax_{i}+b))^{2}i=0n(xi(axi+b))2,现在的任务只要求使得这个式子最小的 a 和 b 就行了。在高等数学中,对于这个问题只要对 a 和 b 分别求偏导,并令其为 0,然后解一个二元一次方程就行了。鉴别黄图的思路也是类似的,只不过这个拟合函数就没有 y=ax+by = ax+by=ax+b 这么简单了,可能还要用到高大上的深度学习什么的……但是道理是一样的。
    对于其他的大部分机器学习算法思路是一样的。流程都是确定目标函数,然后对每个参数求导的方法找到目标函数的最大值(优化参数的过程)。只不过这里每个步骤都有很多方法可以选择。比如针对是否有训练集可以分为有监督、无监督和半监督。目标函数有极大似然估计、贝叶斯估计、平方误差、交叉熵之类的。优化参数可以直接求出解析解(如果可以的话),或者用 EM 算法、梯度下降法、牛顿法之类的进行迭代优化。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值