通用大语言模型的道德图景
1. 引言
“通用人工智能”(AGI)这一术语常困于营销和研究领域的争议之中,有必要从伦理视角对其进行定义和分析。1980 年,美国哲学家约翰·塞尔发表文章反对当时所谓的“强人工智能”,他提出“机器能否思考”的问题,并通过“中文房间”思想实验来尝试解答。该实验设想一个房间里的人工智能拥有包含中文句子的文档,当以中文为母语的人进入房间与它交流时,它虽能给出中文回答,但却没有该语言的背景知识,即语法并非确定语义的充分条件。
如今,“强人工智能”似乎被“通用人工智能”取代,但二者含义不同,先驱者和人工智能从业者对此仍存在诸多困惑。机器学习工程师谢恩·莱格将通用人工智能描述为“旨在具备通用性,如人类智能般广泛的人工智能系统”。本文不讨论人类智能,而是聚焦于通用人工智能的能力,尤其是在自然语言处理方面日益专业化的人工智能系统,并探讨其哲学和道德影响。
我们期望推动以人为中心的人工智能(HCAI)发展,即人类为人类创造的、以提升人类福祉为主要目标的系统。接下来将分析通用大语言模型的相关具体问题,强调伦理冲突,并探索潜在解决方案。
2. 自然语言处理(NLP)
在讨论通用人工智能的道德影响之前,需明确相关论点并澄清一些技术细节。自然语言处理是语言学、计算机科学和人工智能的一个子领域,专注于人类与机器语言的交互。最初基于符号识别系统(符号人工智能),如今的自然语言处理学习更多地涉及神经自然语言处理中的统计概率方法。
基于机器学习算法的自然语言处理系统越来越受欢迎,其中“Transformer”架构引发了重大变革。它基于自注意力机制,使机器能够聚焦文本序列的特定部分,并权衡每个单词的重要性以进行预测,试图模拟
超级会员免费看
订阅专栏 解锁全文
93

被折叠的 条评论
为什么被折叠?



