下一代人工智能应对深度神经网络的不可持续性
深度神经网络的局限性
深度神经网络(DNNs)的主要局限性可根据其来源分为三类:
1. 不透明性 :模型内部的工作机制难以理解,就像一个黑盒子,人们很难知道它是如何做出决策的。
2. 学习方式 :往往采用一次性学习,难以适应不断变化的环境和新的情况。
3. 表示方式 :知识的表示不够清晰和透明,不利于人类或机器的直接检查和理解。
这些局限性在人工智能研究中经常出现,尤其是自2008年年度通用人工智能(AGI)会议系列开始以来。接下来,我们将介绍一些针对这些领域的最新研究工作。
从不透明知识到透明知识
一种强大的知识表示方式是使其结构明确地具有层次性,这样人类或机器就可以直接检查知识。在20世纪70年代的专家系统中,明确表示知识是很常见的,并且一些人工智能研究也延续了这一传统。
例如,非公理推理系统(NARS)将知识表示为可废止的陈述,这些陈述仍然支持推理。基于NARS的系统通过混合(非公理)演绎、溯因和归纳的推理过程进行学习。其他系统也采用了类似的方法,但使用了不同的知识表示方案,如自催化内生反射架构(AERA)。
Latapie等人开发的原型结果表明,依赖显式知识表示的系统已经取得了很大进展,但它们获得的资金与取得的成果并不成正比。这些系统处理的数据量比基于DNN的系统小得多,因此能耗也低得多。例如,AERA系统在一台6核办公台式机上仅学习20小时后,就学会了进行电视风格的采访。
除了非公理化,克服基于逻辑陈述
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



