人工智能中的伦理理性:迈向完全伦理主体的前景
在人工智能(AI)和机器学习不断发展的今天,伦理问题逐渐成为了核心关注点。本文将深入探讨AI领域中的两个关键伦理问题——“黑箱问题”和“铁皮人问题”,以及与之相关的伦理理性概念。
伦理理性与AI伦理问题的引入
伦理理性的概念源于对智能概念的讨论。智能被定义为实现复杂目标的能力,但这一定义本身并未包含伦理考量。Nick Bostrom指出,任何水平的智能原则上都可以与任何最终目标相结合,这意味着AI可能在不考虑对错、好坏的情况下得到极致发展。因此,将人工智能与伦理目标联系起来的一个重要步骤是确保其可解释性。
当可解释性无法实现时,就会出现所谓的“黑箱问题”。这一问题在AI研究界备受关注,因为它似乎阻碍了技术的理性、透明和无偏见使用。另一个问题与开发与人类水平智能相当的通用人工智能有关,从机器的角度来看,这可以被暂称为“铁皮人问题”。该问题涉及到AI和人类成为完全伦理主体的前景,而这可能需要参考情感及其在人类认知、决策和关怀中的重要作用。
背景:伦理在AI领域的发展
从20世纪50年代中期AI诞生以来,该领域主要由计算工程师和认知科学家主导,他们专注于语言、符号和形式理论的研究。直到90年代中期,伦理在该领域几乎缺失。虽然如今一些AI手册开始涉及伦理内容,但对理性的定义往往不够全面。例如,Russell和Norvig认为“一个系统如果在已知情况下做‘正确的事’,那么它就是理性的”,但一个理性的主体还应该为其行为提供一些基本的理由。
这种对理性的理解可以追溯到柏拉图,他认为善是世界的最高理念,只能通过理性来获得。在他的对话中,理性思考的关键能力被称为“logon didonai
超级会员免费看
订阅专栏 解锁全文
577

被折叠的 条评论
为什么被折叠?



