本文是LLM系列文章,针对《Fairness in Large Language Models: A Taxonomic Survey》的翻译。
大型语言模型中的公平性:分类综述
摘要
大型语言模型(LLM)在各个领域都取得了显著的成功。然而,尽管这些算法在许多实际应用中具有良好的性能,但大多数算法缺乏公平性考虑。因此,它们可能导致对某些社区,特别是边缘化人群的歧视性结果,促使对公平LLM进行广泛研究。另一方面,与传统机器学习的公平性相比,LLM中的公平性需要独特的背景、分类和实现技术。为此,本调查全面概述了有关公平LLM的现有文献的最新进展。具体而言,对LLM进行了简要介绍,然后分析了导致LLM偏差的因素。此外,还明确讨论了LLM中公平的概念,总结了评估LLM中偏差的指标和现有的促进公平的算法。此外,还总结了用于评估LLM中偏差的资源,包括工具包和数据集。最后,讨论了现有的研究挑战和悬而未决的问题。
1 引言
2 分类的概述
3 背景
4 LLM中的ML偏差量化和语言适应
5 LLM中的量化误差
6 缓解LLM中的偏差
7 用于评估偏差的资源
8 挑战和未来方向
9 结论
LL