本文是LLM系列文章,针对《Bias and Fairness in Large Language Models: A Survey》的翻译。
大型语言模型中的偏见与公平性研究
摘要
大型语言模型(llm)的快速发展使得处理、理解和生成类人文本成为可能,并越来越多地集成到触及我们社会领域的系统中。尽管取得了成功,但这些模式可以学习、延续和放大有害的社会偏见。在本文中,我们提出了对LLM偏见评估和缓解技术的全面调查。我们首先巩固、形式化并扩展了自然语言处理中的社会偏见和公平的概念,定义了伤害的不同方面,并引入了几个必要的条件来实现LLM的公平。然后,我们通过提出三种直观的分类来统一文献,其中两种用于偏见评估,即指标和数据集,另一种用于缓解。我们的第一个偏差评估指标分类法消除了指标和评估数据集之间的关系,并根据它们在模型中运行的不同层次(嵌入、概率和生成文本)组织了指标。我们用于偏见评估的第二种数据集分类法根据数据集的结构将其分类为反事实输入或提示,并确定目标危害和社会群体;我们还发布了公共可用数据集的整合,以改进访问。我们的第三种减轻偏见的技术分类法通过在预处理、训练中、处理内和后处理期间的干预对方法进行分类,并通过细化的子类别阐明了研究趋势。最后,我们确定了未来工作中存在的问题和挑战。综合广泛的近期研究,我们的目标是为现有文献提供一个明确的指导,使研究人员和从业者能够更好地理解和防止LLM中偏见的传播。