Evaluating Gender Bias in Large Language Models via Chain-of-Thought Prompting

828 篇文章

已下架不支持订阅

本文研究发现,大型语言模型(LLM)在不可扩展任务上存在性别偏见,但通过思想链(CoT)提示,可以减少这种无意识的社会偏见,鼓励公平预测。实验显示,CoT在不可分级任务中有助于减轻性别偏见,并在下游任务中表现出有效性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Evaluating Gender Bias in Large Language Models via Chain-of-Thought Prompting》的翻译。

运用思维链提示法评价大型语言模型中的性别偏见

摘要

既有可扩展任务,如阅读理解和事实核查,其中模型性能随着模型大小而提高,也有不可扩展任务(如算术推理和符号推理),其中模型的性能不一定随着模型大小的增加而提高。配备了思想链(CoT)提示的大型语言模型(LLM)即使在不可扩展的任务上也能够做出准确的增量预测。不幸的是,尽管LLM具有非凡的推理能力,但它们往往会内化并再现歧视性的社会偏见。CoT是否能为不可分级任务中的隐含信息提供歧视性或平等性的合理化仍然是一个悬而未决的问题。
在这项研究中,我们检验了LLM的逐步预测对不可分级任务中的性别偏见的影响。为此,我们为一个不可扩展的任务构建了一个基准,其中LLM被提供了一个单词列表,包括阴性、阳性和性别化的职业单词,并被要求计算阴性和阳性单词的数量。在我们的CoT提示中,我们要求LLM在做出最终预测之前,明确指示单词列表中的每个单词是阴性还是阳性。通过对词义的计数和处理,该基准具有算术推理和符号推理的特点。英语实验结果表明,在没有逐步预测的情况下,大多数LLM都会做出有社会偏见的预测,尽管任务就像数单词一样简单。有趣的是,C

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值