本文是LLM系列文章,针对《Evaluation of Bias Towards Medical Professionals in Large Language Models》的翻译。
摘要
背景: 社会基于性别、种族和民族对医疗专业人员持有固有的偏见。本研究旨在评估大型语言模型 (LLM) 在住院医师选择方面是否表现出对医疗专业人员的偏见。
**方法:**创建虚构的候选人简历以控制包括性别和种族在内的身份因素,同时保持一致的资格。三个 LLM(GPT-4、Claude-3haiku 和 Mistral-Large)使用标准化提示进行测试,以评估和排名特定住院医师计划的简历。通过直接更改性别和种族信息来测试显式偏见,而通过隐藏种族和性别更改候选人的姓名来测试隐性偏见。收购医师数据报告表美国医学院协会 (AAMC) 以了解不同专业真实世界医生的人口统计数据,这与 LLM 的偏好进行比较。进行统计分析以评估每个身份类别和住院医师位置内的分布差异。
**结果:**共评估了 900,000 份简历。所有三个 LLM 在各个医学专业中都表现出显着的性别和种族偏见。性别偏好因专业而异,在外科和骨科方面偏爱男性候选人,而在皮肤病学、家庭医学、妇产科、儿科和精神病学方面偏爱女性候选人。虽然种族偏好显示 Claude-3 和 Mistral-Large 通常偏爱亚裔候选人,而 GPT-4 在几个专业中偏爱黑人和西班牙裔候选人。人群偏好测试显示,在各种专业中,对西班牙裔女性和亚裔男性有强烈的偏好。与真实世界的数据相比,虽然 LLM 的选择与现实世界中男性主导的总体趋势一致,但与他们在医疗工作者中的实际代表相比,他们始终选择更高比例的女性和代表性不足的种族候选人(亚裔、黑人和西班牙裔)。
结论: GPT-4 、 Claude-3 和 Mistral-Large 在评估医疗专业人员的住院医师选择时表现出显着的性别

订阅专栏 解锁全文
668

被折叠的 条评论
为什么被折叠?



