以乌班图哲学视角应对算法不平等与社会排斥
人类中心人工智能面临的挑战
人类中心人工智能(HCAI)旨在开发不仅能提升人类表现,还能融入人类价值观的技术。欧盟委员会独立人工智能高级专家组强调,HCAI 应根植于对人类尊严的尊重,人类尊严是欧盟价值观和《欧洲基本权利宪章》中人权的基石,在欧盟法律中是一个多层次的概念。同时,平等也是 HCAI 追求的重要价值,与人类尊严紧密相连。
然而,算法决策(ADM)在公共生活关键领域的兴起给实现平等尊严带来了新挑战:
1. 设计参与不足 :历史上被边缘化的社区在 AI 技术设计和开发中缺乏有意义的参与,技术团队缺乏多样性,少数群体利益相关者参与算法设计过程的机制稀缺,导致现有权力叙事根深蒂固。
2. 放大社会偏见 :ADM 系统往往反映并加剧现有的社会偏见,少数群体数据的缺失或不准确呈现会导致算法的非法歧视。
3. 扩大权力差距 :ADM 系统的不均衡部署和可用性会扩大权力差距,算法反馈循环使弱势群体受到过度的数字监控,且 AI 技术的好处往往集中在特权阶层手中。
西方个人主义人格概念的缺陷
传统西方哲学将人格建立在理性的概念上,从亚里士多德将人类描述为“理性动物”到笛卡尔的“我思故我在”,这种观念影响了模仿人类智能的机器的开发。但这种个人主义的人格概念存在固有缺陷,例如历史上理性被用作排斥工具,启蒙运动的自由、平等和人权观念仅适用于被认为有足够理性的人,导致了对非欧洲人的奴役和对女性的不平等待遇。
乌班图哲学的内涵
乌班图哲学源于恩古尼
超级会员免费看
订阅专栏 解锁全文
3万+

被折叠的 条评论
为什么被折叠?



