强人工智能的权益与非法使用问题
1. 强人工智能的权利与责任
当人工智能无法表达同意时,它们可能会被人类奴役,并且需要有人为其缺陷和行为负责。一旦人工智能具备意识,它可以主张与人类相似的人格地位。此时,它能够表示同意、拥有权利、为自己的行为负责并签订合同。赋予人工智能权利也会带来与人类相当的责任和惩罚。有感知能力的人工智能和半机械人在人际关系和工作方面会面临诸多歧视。因此,需要新的监管框架来涵盖它们的固有权利,以在这些方面保护它们。
2. 人工智能被视为“事物”的后果
如果不赋予强人工智能权利和义务,它们就会被自动视为“事物”。人类设计、制造、拥有和操作机器人,如果仅仅将它们视为物品或仆人,很容易预见会产生严重后果。若我们将它们当作宠物或奴隶那样拥有,它们就成为了我们的责任。由于我们要负责决定它们的行为、目标和智力水平,所以应该关注人工智能的使用情况。
3. 人工智能可能被非法使用的场景
人工智能有很多可能被恶意利用的情况,既可能被用作犯罪工具,也可能成为犯罪受害者。涉及人口贩卖、军事和准军事等领域将受到具身强人工智能到来的重大影响。以下是人工智能可能遭遇或实施的不当行为场景:
| | 从人工智能角度 | 对人工智能角度 |
| — | — | — |
| 奴隶制 | | 人工智能可能被当作奴隶进行强制劳动 |
| 卖淫 | | 人工智能可能被用于卖淫目的 |
| 劳动 | | 人工智能可能被强迫劳动 |
| 雇佣兵 | 人工智能可能被用作雇佣兵 | |
| 军事 | 人工智能可能作为军事武器被使用 | |
超级会员免费看
订阅专栏 解锁全文
649

被折叠的 条评论
为什么被折叠?



