可信AI的伦理原则与可持续未来
在当今科技飞速发展的时代,人工智能(AI)和智能系统(A/IS)正以前所未有的速度改变着我们的生活。全球范围内A/IS的部署方式,将成为决定是否能实现“不让任何人掉队”、是否尊重所有人的人权和尊严、是否保护儿童权益,以及国家内部和国家之间贫富差距是缩小还是扩大的关键因素。
1. A/IS对全球平等的影响
如果A/IS的开发和营销被少数公司(主要是高收入国家的公司)控制,那么可能会加剧国家内部和国家之间的不平等。这些技术带来的好处可能主要集中在高学历和富裕人群,而低学历劳动力可能会因自动化和缺乏相应的教育或再培训体系而被取代。互联网接入和使用的不平等,也引发了如何让全人类共享A/IS益处的问题。确保A/IS“造福大众”是一项伦理要求,也是“符合伦理设计”的核心。“造福大众”的关键要素是以人类为中心、可问责,并确保结果公平且包容。
2. 可解释性原则的重要性
许多组织和报告都强调了AI系统可解释性的重要性。可解释性对于建立和维护用户对AI系统的信任至关重要。由于AI系统的工作原理往往只有最专业的观察者才能理解,因此提高透明度和可追溯性是必要的。以下是不同组织和报告对可解释性原则的阐述:
|组织/报告|相关原则表述|
| ---- | ---- |
|HLEG的《可信AI伦理指南》|强调可解释性对于建立和维护用户对AI系统的信任至关重要,指出在某些“黑盒”算法情况下,需要采取可追溯性、可审计性和透明沟通系统能力等措施。|
|EGE的《AI声明》|用“透明度”和“问责制”来描述解释和追究AI系统决策过程责任的必要性,认识到解释AI系统输出或决策的原因并不总是可行。|
|《阿西洛马AI
超级会员免费看
订阅专栏 解锁全文
21

被折叠的 条评论
为什么被折叠?



