通用大语言模型的道德图景与人类中心AI的思考
1. 通用大语言模型面临的问题及潜在解决方案
通用大语言模型和通用人工智能(AGI)的发展带来了诸多技术和伦理问题。我们需要探索一些潜在的解决方案。
首先,要明确大语言模型的终极目标和AGI的目的。在伦理层面,“能做就做”的范式站不住脚,我们必须清晰定义其目的,而不是满足于模糊的“通用目的”。若无法明确目的,就难以找到合理依据并进行道德评估。考虑到机器学习技术的发展,在建立完善的保障措施后,进一步自动化才是可取的。如果这仍是构建AGI的一部分,那么提前制定结构良好的能力限制是必要的。
其次,我们要关注AI行业背后与社会正义相关的“黑箱”问题。“黑箱”不仅存在于算法中,还存在于剥削性的过程里,这些过程常让世界上最贫困的人群参与其中,使我们误以为这些过程是自动化的,但实际上并非如此。运行大语言模型所需的数据集对人力劳动的需求呈指数级增长。因此,国家和国际机构需要迅速提出问题,为新的“数据标注无产阶级”提供答案和明确的立法框架。
最后,语言问题是最棘手的问题之一。除了AGI先驱们将产品标榜为“通用”的隐蔽虚伪性外,问题的根源是结构性的。如今整个互联网生态系统由英语和美国单一文化主导。不过,我们可以将这一难题转化为机遇,修复语言模型中的此类问题,并尽可能整合用户反馈。这个过程可能较长,但可能是富有成效合作的开端。此外,这或许有助于改变AGI范式,使其成为“狭义AI”,即针对特定能力并受限于特定情境。这样,每个情境都能拥有适合自己的模型,确保与社会情境相关的多元价值得以体现。
从伦理角度看,开发基于特定文化的狭义AI模型比追求AGI有诸多好处。这些模型针对特定情境,能满足特定社区的需求和价值观,可降低延续偏见和意外后果的风险,因为它们
超级会员免费看
订阅专栏 解锁全文
1081

被折叠的 条评论
为什么被折叠?



