本文是LLM系列文章,针对《Evaluating Gender Bias in Large Language Models via Chain-of-Thought Prompting》的翻译。
摘要
既有可扩展任务,如阅读理解和事实核查,其中模型性能随着模型大小而提高,也有不可扩展任务(如算术推理和符号推理),其中模型的性能不一定随着模型大小的增加而提高。配备了思想链(CoT)提示的大型语言模型(LLM)即使在不可扩展的任务上也能够做出准确的增量预测。不幸的是,尽管LLM具有非凡的推理能力,但它们往往会内化并再现歧视性的社会偏见。CoT是否能为不可分级任务中的隐含信息提供歧视性或平等性的合理化仍然是一个悬而未决的问题。
在这项研究中,我们检验了LLM的逐步预测对不可分级任务中的性别偏见的影响。为此,我们为一个不可扩展的任务构建了一个基准,其中LLM被提供了一个单词列表,包括阴性、阳性和性别化的职业单词,并被要求计算阴性和阳性单词的数量。在我们的CoT提示中,我们要求LLM在做出最终预测之前,明确指示单词列表中的每个单词是阴性还是阳性。通过对词义的计数和处理,该基准具有算术推理和符号推理的特点。英语实验结果表明,在没有逐步预测的情况下,大多数LLM都会做出有社会偏见的预测,尽管任务就像数单词一样简单。有趣的是,CoT提示减少了LLM中这种无意识的社会偏见,并鼓励公平预测。
1 引言
2 多步性别偏见推理
3 实验
4 分析
5 相关工作
6 结论
我们对CoT提示的LLM对不可分级任务中的性别偏见的影响的调查显示了有希望的结果。虽然LLM具有
本文研究发现,大型语言模型(LLM)在不可扩展任务上存在性别偏见,但通过思想链(CoT)提示,可以减少这种无意识的社会偏见,鼓励公平预测。实验显示,CoT在不可分级任务中有助于减轻性别偏见,并在下游任务中表现出有效性。
已下架不支持订阅

被折叠的 条评论
为什么被折叠?



