人工智能的常识构建与信任建立
1. 早期学习与常识获取
早期学习中,从个人经验获取的内容包含两方面:一是识别和命名日常物理对象类别的能力,如消防车、钳子、帐篷和雪橇等;二是一些可用语言表达的额外想法。接下来重点探讨第二方面。
1.1 露营与冬季主题知识
在露营相关知识中:
- 露营车既可以自行驾驶,也能连接到汽车或皮卡后部。
- 灯笼和手电筒是露营时的照明工具。
- 睡袋是露营用的毯子。
- 有些人会在湖边露营,进行滑水、划船和钓鱼等活动。
冬季主题的知识如下:
|序号|知识内容|
|----|----|
|1|冬季是四季之一|
|2|冬季通常是最冷的季节|
|3|部分地区冬季会下雪|
|4|人们在冬季会穿更暖和的衣服|
|5|一些动物在冬季会冬眠|
|6|树木在冬季可能会落叶|
|7|湖泊、池塘和水在冬季可能会结冰|
|8|在较寒冷地区,滑雪橇、滑雪、坐平底雪橇和滑冰是冬季运动|
|9|人们通过铲雪和用犁除雪|
|10|12月、1月和2月是冬季月份|
2. 从语言中获取知识的挑战
虽然人工智能系统若能像人类一样从文本中学习会很方便,但存在一个严重障碍,即需要理解文本含义。大量未分析的英文文本对某些任务(如检索特定医学文章或进行基本翻译)可能有用,但对于常识构建,需要构建适合推理程序的符号表示,这就要求从文本中明确所声称存在的事物种类及其属性。
2.1 文本与符号结构的差距
陈述句与符号结构之间存在很大差距。普通说明性文本中的英文句子以密集复杂的方式表达想法,许多必要细节需由有知识的语言使用者补充。例如:
- “a small dog”这个短语,若不明确涉及“大小”属性,就难以构建所需的符号表示。
- 在名词 - 名词修饰中,“a wood table”涉及材料构成,“a coffee table”涉及用途,但短语本身并未明确说明。
- “plant food”是给植物的食物,“food plant”是指能提供食物的植物。
- “old family recipe”和“old goulash recipe”不同,但“family”属性在食谱中的具体含义并不清晰。
- 像“truck stop diner Thursday night hamburger platter special”这样的短语,只是一堆名词的堆砌,所有属性分析都有待完成。
2.2 歧义问题
在构建符号表示时,歧义问题使先验知识的需求更加明显。例如句子“The large ball crashed through the table because it was made of steel.”,虽然单词含义清晰,但句子中没有明确指出是球由钢制成,而且通常人们可能会认为桌子更有可能是钢制的。
2.3 当前AI构建知识库的问题
目前一些构建大型知识库的AI项目(如NELL或MIT的ConceptNet)试图生成大量常识事实和规则,但不太关注所涉及的事物和属性。结果导致符号表示有些混乱,不仅在推理方面投入时间不足,而且知识库的内部连贯性也难以保证,无法让推理程序完全自动化运行。即使是人工精心构建的知识库,也可能因不同人对世界分类和属性的看法不同而出现连贯性问题,需要进行某种管理来解决冲突和误解。
3. 更有原则的解决方法
3.1 分阶段处理
人类理解英文文本的能力是分阶段发展的。不同年龄段的人对文本的理解能力不同,如青少年可能难以理解哲学家康德的著作,8岁儿童可能听不懂成人的普通对话,2岁儿童对一些抽象词汇(如Basic English中的“account”“act”等非图像化名词)的理解也有限。这启示我们,AI提取文本知识也应分阶段进行。系统可以先理解使用基础英语的简单说明性文本,然后利用获取的知识和其他方式获得的额外知识,去理解更有挑战性的文本,如此循环迭代。
3.2 在线资源的利用
有一个名为KidzSearch的维基百科版本,专为儿童设计,包含约二十万篇用简化英语撰写的文章,句子简短直接,行话最少。例如关于地鼠和歌剧的文章,KidzSearch版本相对简单,但仍包含大量信息。如果AI能有效利用这些文章中的知识,将有助于理解更具挑战性的成人文本。不过,这也带来两个问题:一是如何开发出有足够知识和语言能力的AI系统来理解KidzSearch文章;二是AI系统除了这些文章知识外,还需要了解什么才能理解成人文本。
graph LR
A[简单说明性文本] --> B[获取知识]
B --> C[理解稍难文本]
C --> D[获取更多知识]
D --> E[理解更难文本]
E --> F[持续迭代]
4. 构建信任:自主AI系统
4.1 自主AI系统的定义
我们所设想的自主AI系统是在不受约束的现实世界环境中工作,能自行决策并处理现实生活中出现的情况。这类系统与目前大多数在人工定义领域工作的AI系统不同,它们要对自己的行为负责,而不是依赖他人做最终决策。
4.2 与传统系统的对比
- 恒温器 :恒温器设定后可自动运行,根据周围温度决定是否开启或关闭暖气。但它是一个封闭系统,其行为由预先确定的参数(即传感器检测的环境温度与设定温度的关系)决定,责任范围非常狭窄,不负责房间的整体温度和人的舒适度。当出现意外情况时,需要人来调整设置或维修。
- 智能家居控制中心 :如在亚马逊Alexa和谷歌Home引导下的智能家居控制中心,虽然有更多传感器和执行器,但在高层决策上仍依赖人。
- 自动驾驶汽车 :先进的自动驾驶汽车能自行决定行驶路线、速度和停车等,但当遇到问题(如交通灯故障)时,可能需要人类接管。而且在一些复杂决策中,常识不一定来自汽车本身,它可以将决策交给人类。
4.3 构建自主AI系统的理由与风险
构建自主AI系统的理由包括:
- 在某些情况下,可能没有人类可进行智能决策,如遥远星球上的无人探测器或地震后的紧急救援场景。
- 未来自主AI系统可能比人类更善于处理现实生活中的情况,具备更强的能力。
然而,这些理由是否充分,收益是否值得风险,仍有待考量。技术的发展不仅要考虑技术可行性,还要考虑社会影响。AI技术也可能被滥用,就像Facebook被用于传播虚假信息和制造分裂一样。我们不能仅仅因为技术上可行就盲目追求,需要谨慎权衡。
总之,从构建具有常识的机器角度来看,研究表示与推理的人员和研究语言分析(特别是简单说明性语言分析)的人员之间需要更紧密的联系。对于自主AI系统的发展,需要在技术和社会影响之间找到平衡,确保其朝着值得信任的方向发展。
5. 自主AI系统的应用场景与挑战
5.1 应用场景分析
自主AI系统在多个领域具有潜在的应用价值,以下是一些具体场景:
|应用场景|具体描述|
|----|----|
|太空探索|在遥远星球上,由于与地球的通信延迟过长,无人探测器需要自主决策以完成科学探测任务,如分析土壤成分、寻找水源等。|
|紧急救援|在地震、火灾等灾难现场,环境复杂且人员和通信有限,机器人可以自主进入危险区域进行搜索和救援工作,如寻找幸存者、搬运重物等。|
|工业生产|在一些危险或重复性高的生产环境中,自主AI系统可以替代人类进行操作,提高生产效率和安全性,如化工生产中的危险物质处理、流水线的自动化操作等。|
5.2 面临的挑战
虽然自主AI系统有诸多应用前景,但也面临着一系列挑战:
-
决策准确性
:在复杂的现实环境中,自主AI系统需要处理大量的信息并做出准确的决策。然而,由于环境的不确定性和信息的不完整性,系统可能会出现决策失误。例如,在自动驾驶汽车遇到复杂路况时,可能无法准确判断其他车辆和行人的意图。
-
安全性
:自主AI系统的安全性是至关重要的。如果系统出现故障或被恶意攻击,可能会导致严重的后果。例如,在医疗领域,自主手术机器人的失误可能会危及患者的生命。
-
伦理和法律问题
:当自主AI系统做出决策并导致后果时,如何确定责任归属是一个复杂的伦理和法律问题。例如,如果自动驾驶汽车发生事故,责任应该由汽车制造商、软件开发者还是车主承担?
6. 增强自主AI系统可信度的方法
6.1 透明度和可解释性
为了增强自主AI系统的可信度,需要提高其透明度和可解释性。系统应该能够向用户解释其决策的依据和过程,让用户理解系统为什么会做出这样的决策。例如,在医疗诊断系统中,系统可以向医生解释其诊断结果是基于哪些症状和数据得出的。
6.2 验证和测试
对自主AI系统进行充分的验证和测试是确保其可靠性的重要手段。在系统开发过程中,需要进行大量的模拟测试和实际场景测试,以发现和解决潜在的问题。例如,在自动驾驶汽车的开发过程中,需要在各种路况和天气条件下进行测试,确保汽车的安全性和可靠性。
6.3 人类监督和干预
尽管自主AI系统具有自主决策的能力,但人类监督和干预仍然是必要的。在系统运行过程中,应该设置人类可以介入的机制,当系统出现异常或无法处理的情况时,人类可以及时接管。例如,在自动驾驶汽车中,驾驶员可以随时手动控制汽车。
graph LR
A[自主AI系统] --> B[透明度和可解释性]
A --> C[验证和测试]
A --> D[人类监督和干预]
B --> E[增强可信度]
C --> E
D --> E
7. 未来展望
7.1 技术发展趋势
随着技术的不断进步,自主AI系统将变得更加智能和可靠。未来,我们可以期待以下技术发展趋势:
-
更强大的计算能力
:随着计算机技术的发展,AI系统将拥有更强大的计算能力,能够处理更复杂的任务和数据。
-
更先进的算法
:新的算法将不断涌现,提高AI系统的学习能力和决策能力。例如,深度学习算法的不断改进将使系统能够更好地理解和处理图像、语音等信息。
-
多模态融合
:未来的AI系统将能够融合多种传感器的数据,如视觉、听觉、触觉等,以更全面地感知环境。
7.2 社会影响和应对策略
自主AI系统的发展将对社会产生深远的影响,包括就业结构的变化、伦理和法律问题的挑战等。为了应对这些影响,我们可以采取以下策略:
-
教育和培训
:加强对人工智能相关知识的教育和培训,提高人们的技能水平,以适应未来就业市场的变化。
-
政策和法规制定
:政府和相关机构应该制定相应的政策和法规,规范自主AI系统的发展和应用,确保其符合伦理和法律要求。
-
公众参与
:鼓励公众参与AI技术的发展和决策过程,让公众了解AI技术的潜在影响,并表达自己的意见和需求。
8. 总结
自主AI系统在现实世界中具有巨大的潜力,但也面临着诸多挑战。在构建具有常识的AI系统时,需要分阶段处理文本知识,利用合适的在线资源,并加强不同领域研究人员之间的合作。同时,为了增强自主AI系统的可信度,需要提高其透明度和可解释性,进行充分的验证和测试,并设置人类监督和干预机制。未来,随着技术的发展,自主AI系统将变得更加智能和可靠,但我们也需要关注其对社会的影响,并采取相应的应对策略。总之,我们应该在技术进步和社会发展之间找到平衡,确保自主AI系统朝着有利于人类的方向发展。
超级会员免费看

被折叠的 条评论
为什么被折叠?



