机器人与人工智能系统的透明度与伦理考量
1. 人工智能与机器人的基本概念
“人工”简单来说就是“由人类制造或生产,而非自然产生”。人工智能既是一个研究主题,也是对某些类型机器,特别是自主机器人的恰当描述。智能是一种可观察到的现象,如果在人工制品中观察到这种现象,按照定义它就是人工的。机器人并非“使用人工智能”,也不存在所谓的“人工智能实体”,可以说机器人“体现了人工智能”。
2. 机器人与人工智能伦理
2.1 机器人伦理的定义
道德哲学,即伦理学,是哲学的一个分支,关注推荐、捍卫和构建关于正确与错误行为的概念。人工智能伦理涉及人工智能研究领域工作者的可接受行为,并延伸到设计、购买或操作可能因该研究而产生的产品(包括机器人)的人员。机器人伦理只是人工智能伦理的一个子集。然而,存在一种道德混淆,有人将道德能动性赋予机器人,错误地认为机器人伦理涉及机器人做出伦理决策并承担责任的能力,研究这种可能性的人将其工作称为机器伦理。但实际上,机器人不是道德主体,机器人行为的责任在于对其负责的人类。人工智能和机器人伦理主要不是关于构建能做出“伦理”决策的软件和机器,而是关于人类在如何以及何时开发和部署人工智能技术方面做出道德选择,因为人类是道德主体,人工智能只是工具。
2.2 事实与价值的争议
在探讨机器人透明度如何为社会设计和使用机器人提供权威且有意义的规范性主张时,涉及到事实与价值的关系。事实是人们能够知晓和理解的事物,价值是人们关心的事物。一些道德哲学家、科学家和有一定哲学知识的人会引用休谟的名言“不能从‘是’推出‘应该’”,他们认为科学事实与关于人类应该如何行为的讨论关联不大。休谟认为人类道德基于人类情感,而情感不受理
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



