具身人工智能能否成为道德主体?
在人工智能快速发展的当下,具身人工智能是否能成为道德主体这一问题备受关注。这不仅涉及到人工智能的技术发展,更关乎伦理、哲学等多个领域的思考。
机器人伦理中的身体角色与传统道德理论局限
在一些机器人伦理案例中,机器人的身体往往只是附带结构,对系统的内容或决策过程并无实质作用。它更多地是通过引发我们对机器人的拟人化认知,来改变案例的外在表现。例如Govindarajulu和Bringsjord提到,理想情况下,伦理基础不仅要审查计划和行动,还需确保对机器人基础结构的任何更改(如添加或删除模块、更新模块等)都不违反一系列最低伦理条件。这一观点暗示了存在可内置的伦理规则,这与阿西莫夫定律的精神相符。
然而,传统道德理论(义务论、美德伦理学和功利主义)在应对现实人类道德行为的复杂性时存在局限性。大多数人工智能方法仍坚持以计算结构作为架构限制,试图寻找可行的、功能性的人工智能伦理方法。比如Bello和Bringsjord呼吁人工智能伦理学家关注道德心理学和认知架构,但他们将功利主义和义务论中便于计算的部分与美德伦理学混为一谈,忽略了美德伦理学并非简单计算,可能难以用相同方式处理。道德心理学确实能为我们了解人类行为及其原因提供很多信息,但当前认知心理学中占主导地位的信息处理模型,即便在其他心理学领域受到质疑,大多人工智能伦理学家仍未充分认识到其背后可能存在的功能失调的形而上学,即严格、传统的计算主义。
意识作为伦理基础
从历史上看,形而上学与各种伦理系统密切相关,心灵的形而上学也偶尔与某些伦理系统和分析相关。然而,意识或心智的形而上学地位在人工智能伦理中所起的作用却令人意外地小。尽管人工智能伦理涵盖范围广泛,但令人惊讶
超级会员免费看
订阅专栏 解锁全文
51

被折叠的 条评论
为什么被折叠?



