人工智能这一术语所涉及的领域十分广泛,从上世纪发展至今已衍生出众多研究方向。因此总体上了解人工智能的分类与概念,对明确学习方向与框架有一定好处。
先上一张图,了解总体情况:(图源:人工智能相关概念整理----by 我是谁??)
概念介绍
人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。by 百度百科
人工智能与人类类似,均是接受外界信息之后经过一定的思考评估过程,最终做出决策。
据训练特点划分
根据数据集的特点与训练方法,人工智能可以分为“无监督学习”与“有监督学习”两大类。
在阐述这两类学习方法之前,我们先要解释几个基本概念。
基本概念
- 特征:数据的特征,如一本书的内容。
- 标签:数据的标签,如一本书所属的类别为文学或者武侠
- 学习:给定计算机数据集,训练其为数据分类打上标签的能力,即培养计算机确立数据与标签之间的映射关系。则当重新输出新数据时,则可以据此映射关系确立该数据的标签。
- 分类(classification):定性输出称为分类,或称为离散变量预测。此时的标签为离散型,如判断明天会是阴天还是晴天。
- 回归(regression):定量输出称为回归,或称为连续变量预测。此时的标签为连续型,如判断明天的温度详细为多少度。
- 聚类(clustering):产生一组集合,集合中的对象与同集合的相似,与不同集合的尽可能相异。但每一个集合所代表的标签并无明确标准。如没有标准参考的学生给书本分类,表示自己认为这些书可能是同一类别的(具体什么类别不知道)。
用一句简单的话概括即是,若训练过程中给定输入,有预期的输出目标,即数据集的标签已知,则为监督学习,反之为非监督学习。
监督学习
在训练时,数据集中不仅提供了输入数据,还提供了数据对应的标签(即是预期输出)。监督学习对应的训练效果一般都不错。
监督学习一般分为两类:分类与回归。
-
监督学习之分类:分类模型用于可以对输出变量进行分类,例如“是”或“否”、“通过”或“失败”。分类模型用于预测数据的类别。现实生活中的例子包括垃圾邮件检测、情绪分析等。
-
监督学习之回归:回归模型用于输出变量为实际值的问题,例如单一的数字、美元、薪水、体重或压力。它最常用于根据先前的观测数据来预测数值。一些比较常见的回归算法包括线性回归、逻辑回归、多项式回归和脊回归。
监督学习的应用包括:
- 文本分类
- 天气预报
- 垃圾邮件检测
- 人脸识别
如天气预报中,训练数据集中不仅包括当天各种气象特征等用于预报的内容,还包括了实际的天气情况作为预期输出,因此是监督学习。
无监督学习
无监督学习是训练机器使用既未分类也未标记的数据的方法。这意味着机器只能自行学习对数据进行分类,而无需事先提供任何有关数据的信息。
其理念是先让计算机与大量变化的数据接触,并允许它从这些数据中学习,以提供以前未知的见解,并识别隐藏的模式。因此,无监督学习算法不一定有明确的结果。相反,它确定了与给定数据集不同或有趣之处。
无监督学习一般有如下类别:
- 聚类:聚类的方法包括将未标记的数据组织成类似的组,称为聚类。因此,聚类是相似数据项的集合。此处的主要目标是发现数据点中的相似性,并将相似的数据点分组到一个聚类中。
- 异常检测是识别与大多数数据显著不同的特殊项、事件或观测值的方法。当某个数据的特征与其他数据有明显差异时,则认为该数据可疑或者可能存在异常。
无监督学习的应用包括:
- 恶意软件检测
- 数据输入中人为偶然失误判断
- 欺诈检测等
注意:垃圾邮件属于是一个大类,拥有其自己独有的特征,如垃圾邮件特有的文字内容或者发送者等等。在训练时,机器已知哪些邮件属于垃圾邮件,在输入新邮件信息时,可以根据邮件中某些特有的语句与给定的垃圾邮件中的语句进行比对,从而判断新输入的邮件是否为垃圾邮件。
但在识别邮件中出现的人为错误时,机器事先不知道训练数据中某一个邮件是否为错误邮件。它只负责比对不同数据之间的特征,然后把与大多数数据特征不同的某些特殊数据单独划分一个类,在逻辑上视为异常。
据应用领域划分
据人工智能的应用领域,可以将人工智能划分为两大领域:通用AI与窄AI(Narrow AI)。
通用AI
通用AI顾名思义,即是具有很强的通用性。人工智能的任务即是代替人类完成繁重的任务,所以通用AI期望可以在几乎所有情况下均可较好地完成人类的任务,如“复仇者联盟”中的Vision等。
这类AI是人工智能领域的终极目标,但目前还有很长一段路需要走。
窄AI(Narrow AI)
目前我们拥有的AI均属于“窄AI”,即仅能在特定的领域内发挥作用。窄AI在所属领域中常常能达到远超人类的效果,但在不属于自身适用范围的领域中寸步难行。如一个图像识别AI可以在极短时间内完成众多图像的识别工作,但却无法识别任何声音输入。
根据窄AI做出决策的方式,我们将其分为两个部分:
- 符号人工智能(Symbolic AI)
- 数字人工智能(Numeric AI)
符号人工智能
符号人工智能通过逻辑推理来解决问题。而推理过程及决策得出来的过程均是按着人们编程的思路进行的,因此推理过程均是公开透明的。它适用于某些需要了解为何AI程序会做出如此决策的场合,如AI法官的判决、AI医生的药方得出的过程等,人们不仅关注罪犯最终获得的刑罚,还关心这个刑罚的制定原因。
这类AI的决策取决于人类的经验和逻辑,程序员必须手动编写控制符号AI系统的所有规则,因此对训练数据量并没有非常硬性的要求。决策的合理性与其所学习的人类经验逻辑的客观普适性有很大关系,因此很难建立适用性较强的正确解决方案。
符号人工智能不需要大量的数据与训练,但如何有效地把专业知识按照合理的逻辑编码传达给人工智能,正是符号人工智能遇到的最大瓶颈。
数字人工智能
数字人工智能核心是机器学习(Machine Learing,简称为ML),而机器学习的基础就是数据。用合理的训练算法进行大量的训练,解析大量的数据,通过不断地学习训练,来找到输入数据之间的联系,从而得出合理的输出决策。
在ML中,AI程序不是使用人工编写所有规则的程序员,而是使用大量示例或数据为自己“学习”我们想要做的事情。这类似于人类如何“学习”新信息。当我们要教孩子狗的外观时,我们不会告诉孩子,如果动物矮小,耳朵下垂,尾巴摆动的话,那就是狗。 取而代之的是,我们向孩子展示一些“狗”的图片,随着孩子年龄逐渐增长,他渐渐地可以独立判断一张图片上的内容是否为一只狗。
因此在数字人工智能中,数据量与训练量尤为重要。
当前的数字人工智能主要分为三个类别
1.传统机器学习
传统的ML使用基于统计方法来执行ML,其中著名的算法有线性回归、支持向量机、决策树等等。这类机器学习采取与统计相关的思路,因此算法的执行过程可知,拥有较强的逻辑过程。如决策树中,每一步的转移都较为明显,具有较高的可解释性。
2. 深度学习
深度学习与传统机器学习不同之处在于,其运用了神经网络作为基本模型,在近年来深度学习逐渐表现出比传统机器学习更强的学习效果,因此热度持续上升,成为主流机器学习方法。
AI的功能,便是接受外界信息,经过一定思考过程后做出决策输出。因此若将外界信息与决策输出作为自变量与因变量,那么思考过程便可以视为一个映射关系,尽管这个映射关系可能无比复杂,但仍然属于一个数学表达,也就是我们所说的函数。而机器学习的目的,便是找到(或尽可能拟合)这个函数。
而深度学习之所以强大,在于它拟合这个函数的能力特别强。其背后的支撑是“通用近似定理”(Universal approximation theorem)–通过调整神经网络各层的权值与参数,可以使得神经网络拟合任何函数,无论函数有多么复杂。
但强大的拟合效果也会使神经网络的层数显著增大,加上巨大的训练数据集与训练时间,使深度学习所需要的学习成本较其他机器学习方法更为巨大。
同时,深度学习还有一个重要的特征:黑箱化。
深度学习的工作原理,是通过一层层神经网络,使得输入的信息在经过每一层时,都做一个数学拟合,这样每一层都提供了一个函数。因为深度学习层数巨大,通过这每一层的函数的叠加,深度学习网络的输出就无限逼近目标输出了。
这样一种“万能近似”,很多时候是输入和输出在数值上的一种耦合,而不是真的找到了一种代数上的表达式。
3. 强化学习
强化学习即是将学习赋予上奖惩制度。在强化学习中,机器不仅会采取行动得到输出,还会将输出与理想输出进行比较,通过比较结果衡量回报来反馈自身的学习方法。谷歌的AlphaGO程序打败了李世石、柯洁等人,就是一个强化学习的例子。
举个例子,机器采取某种方法,得到的答案与理想答案相差甚远,那么机器就会受到类似“惩罚”的反馈,提醒机器减少该方法的使用。而当机器的答案与理想答案相距不大,那么机器便可以得到“奖励”的信息,提醒机器可以适当保留该方法。