编辑 | ScienceAI
作者 | Yu Tian 团队
在人工智能(AI),特别是医疗AI领域中,解决公平性问题对于确保公平的医疗结果至关重要。
最近,增强公平性的努力引入了新的方法和数据集。然而,在域转移的背景下,公平性问题几乎没有得到探索,尽管诊所常常依赖不同的成像技术(例如,不同的视网膜成像方式)进行患者诊断。
本文提出了FairDomain,这是首次系统性研究算法在域转移下的公平性,我们测试了最先进的域适应(DA)和域泛化(DG)算法,用于医学图像分割和分类任务,旨在了解bias如何在不同域之间转移。
我们还提出了一种新的即插即用的公平身份注意力(FIA)模块,通过使用自注意力机制,根据人口统计属性调整特征重要性,以提高各种DA和DG算法的公平性。
此外,我们还整理并公开了第一个关注公平性的domain-shift数据集,该数据集包含同一患者群体的两种配对成像方式的医学分割和分类任务,以严格评估域转移场景下的公平性。排除源域和目标域之间人口分布差异的混淆影响,将使域转移模型性能的量化更加清晰。
我们的广泛评估表明,所提出的FIA在所有域转移任务(即DA和DG)中显著增强了模型在不同人口统计特征下的公平性和性能,在分割和分类任务中均优于现有方法。
在这里分享ECCV 2024中稿的工作「FairDomain: Achieving Fairness in Cross-Domain Medical Image Segmentation and Classification」

解决人工智能 (AI) 的公平性问题,尤其是医疗 AI 的公平性,对于确保公平的医疗保健结果至关重要。最近为提高公平性所做的努力在医疗人工智能中引入了新的方法和数据集。然而,域名转移背景下的公平性问题几乎没有被探索过,而诊所依赖不同的成像技术(例如,不同的视网膜成像模式)进行患者诊断是很常见的。
本文介绍了 FairDomain,这是一项开创性的系统研究,旨在研究域偏移下的算法公平性,采用最先进的域适应 (DA) 和泛化 (DG) 算法进行医疗分割和分类任务,以了解偏差如何在不同域之间转移。
本文还引入了一种新颖的即插即用公平身份注意力(FIA)模块,该模块适应各种DA和DG算法,通过使用自我注意力根据人口统计属性调整特征重要性来提高公平性。
此外,我们还为同一患者队列在医疗分割和分类任务中策划了第一个以公平性为重点的数据集,该数据集具有两种成对的成像模式,以严格评估领域转移场景中的公平性。排除源域和目标域之间的人口分布差异的混杂影响,可以更清楚地量化域转移模型的性能。
我们的广泛评估表明,拟议的 FIA 显着提高了模型性能,并且在所有域转移设置(即 DA 和 DG)中,相对于不同的人口统计学,这都优于现有的细分和分类方法。

数据集网站:https://ophai.hms.harvard.edu/datasets/harvard-fairdomain20k
数据集下载链接: https://drive.google.com/drive/folders/1huH93JVeXMj9rK6p1OZRub868vv0UK0O?usp=sharing
Harvard-Ophthalmology-AI-Lab 致力于提供高质量公平性数据集 更多公平性数据集 请点击lab的数据集主页:https://ophai.hms.harvard.edu/datasets/
背景
近年来,深

最低0.47元/天 解锁文章
889

被折叠的 条评论
为什么被折叠?



