机器人与自主系统的透明度探讨
1. 机器人与AIS透明度的必要性
在与“无形”的人工智能系统(AIS),如聊天机器人或语音激活数字助理交互时,我们很难从其外在形式预测其功能。除了拟人化的想象,我们缺乏有效的心理模型来预测它们的能力、目标和意图。而且,机器人或AIS的能力、目标和意图并非一成不变,它们可能会因个体学习、通过互联网进行的整合学习或传统软件更新而几乎瞬间发生改变。
由于这些原因,人类很难形成对机器人合适且有效的交互反应。从长远的文化影响来看,可能会出现两种极端情况:一是为避免伤害,依赖直觉反应而拒绝与机器人和AIS交互;二是过度拟人化,将机器人和AIS视为同类,赋予它们权利和道德义务,却忽略了它们实际上是由人类设计的操控机器。这两种结果对人类来说都可能存在问题。
因此,更好的方法是让机器人和其他自主智能机器具有透明度。我们可以让它们的机器本质更加明显,与人类和其他自然生物区分开来,并且让它们告知我们其能力、意图和目标。社会应该期望机器人和AIS的设计者和操作者使其产品具有透明度,除非有充分理由不这么做,否则默认应该保证适当的透明度。
2. 实现透明思维的挑战
传统的符号人工智能方法通常更适合生成实时叙述,在一定程度上解释机器人的行为。而基于机器学习(ML)的人工智能方法则是构建智能系统的强大替代方案。ML方法从数据中提取人类智能,并将其封装在算法的数值参数中,对于给定的输入集,算法会计算出输出值。它在图像识别、语音和手写识别、游戏等多个领域都有出色的表现。
然而,大多数ML方法属于“黑盒方法”,系统无法对其决策过程提供有意义的解释,即使对系统内部进行调查,也很难了解决策的原因。例如,深度人工神经网络(ANN
超级会员免费看
订阅专栏 解锁全文
38

被折叠的 条评论
为什么被折叠?



