本文是LLM系列文章,针对《Evaluating Gender Bias in Large Language Models via Chain-of-Thought Prompting》的翻译。
摘要
既有可扩展任务,如阅读理解和事实核查,其中模型性能随着模型大小而提高,也有不可扩展任务(如算术推理和符号推理),其中模型的性能不一定随着模型大小的增加而提高。配备了思想链(CoT)提示的大型语言模型(LLM)即使在不可扩展的任务上也能够做出准确的增量预测。不幸的是,尽管LLM具有非凡的推理能力,但它们往往会内化并再现歧视性的社会偏见。CoT是否能为不可分级任务中的隐含信息提供歧视性或平等性的合理化仍然是一个悬而未决的问题。
在这项研究中,我们检验了LLM的逐步预测对不可分级任务中的性别偏见的影响。为此,我们为一个不可扩展的任务构建了一个基准,其中LLM被提供了一个单词列表,包括阴性、阳性和性别化的职业单词,并被要求计算阴性和阳性单词的数量。在我们的CoT提示中,我们要求LLM在做出最终预测之前,明确指示单词列表中的每个单词是阴性还是阳性。通过对词义的计数和处理,该基准具有算术推理和符号推理的特点。英语实验结果表明,在没有逐步预测的情况下,大多数LLM都会做出有社会偏见的预测,尽管任务就像数单词一样简单。有趣的是,C