以人为本的人工智能伦理:技术与社会的交织挑战
1. 以人为本的人工智能面临的问题
1.1 信息身份与可追溯性
在人工智能的应用中,即使身份被模糊处理,信息身份仍可能遭到侵犯。因为围绕数据点的分析仍可能进行用户画像。此外,技术故障时的道德责任追溯也是一个难题。随着信息通信技术和编程的快速发展,由于复杂性和数据量的增加,确定责任变得越来越困难。对于非学习算法,程序员仍保留一定责任,但在大规模不透明数据集的情况下,责任追溯变得复杂。而对于具有学习能力的算法,其不确定性使得难以将责任归咎于特定程序员或群体。
1.2 算法对自主性的影响
研究人员主要分析个性化算法,指出其对用户自主性存在三个方面的威胁:
- 主动学习算法的广泛分布影响用户选择。
- 用户对算法的理解有限。
- 对算法结果缺乏申诉途径。
虽然一些人对算法有了一定的隐性认识,但仍不足以全面理解和控制算法结果。学习和个性化算法对自主选择的威胁揭示了技术、伦理和政治问题的复杂交织。
2. 技术 - 社会人工智能伦理
2.1 重新审视自主性的影响
传统观点将用户视为具有稳定能力和权利的主体,而技术或算法则独立存在。但这种观点可能掩盖了技术背后的社会生产过程。Emma Ruttkamp - Bloem批判了“虚假的笛卡尔式认知”,借鉴Andy Clark的“天生的半机械人”哲学人类学观点,认为人类与环境和技术相互作用、相互塑造。
2.2 技术 - 社会工程
学者Brett Frischmann和Evan Selinger担心信息通信技术(ICTs)会对人类进行技术 - 社会重
超级会员免费看
订阅专栏 解锁全文

42

被折叠的 条评论
为什么被折叠?



