FedDG: Federated Domain Generalization on Medical Image Segmentation via Episodic Learning

本文提出FedDG方法,解决了医疗影像分割任务中跨机构数据差异带来的泛化难题。利用频域插值增强数据多样性,并通过边界导向的元学习策略确保模型在不同数据分布下的稳定性。

FedDG: Federated Domain Generalization on Medical Image Segmentation via Episodic Learning in Continuous Frequency Space

论文标题

FedDG: Federated Domain Generalization on Medical Image Segmentation via Episodic Learning in Continuous Frequency Space

论文来源

CVPR 2021

Paper: https://arxiv.org/abs/2103.06030

Code: https://github.com/liuquande/FedDG-ELCFS

1 背景介绍

在医学影像分割任务中,越来越多的工作倾向于收集多个医疗机构的数据并由此构建出更加精确且鲁棒的深度网络。但是由于医疗影像的特殊性(存在大量不同的隐私保护规定),导致这种依靠大规模数据集提升模型性能和鲁棒性的方法十分困难。最近,很多研究者注意到可以使用联邦学习(Federated Learning, FL)解决隐私保护的问题。

联邦学习可以在多分布的数据集中进行模型训练,每个单独的数据集只需在本地进行处理。网络参数更新时只需要将各个本地数据训练的模型定期推送到中心服务器,中心服务器随后将各个本地模型进行聚合得到新的网络参数并更新到本地终端。在联邦学习的过程中只有网络参数的交互,避免出现数据交互,因此不违反医疗数据的隐私保护政策。

现有的联邦学习方法往往只关注已有的数据集中模型的表现,忽视了模型在未知的新数据分布下的泛化性和鲁棒性。实际应用场景中,我们往往会遇到将现有的网络模型部署到新的医疗机构和地区的需求,不同机构使用的设备差异、地区间人群分布差异等都会导致医疗影像的数据分布差异(domain shift)。这种数据分布差异是阻碍联邦学习在实际中广泛应用的一个关键问题。

2 论文贡献

  1. 这篇文章基于医疗影像分割任务的实际应用场景,提出了一个新的问题设定:联邦学习的领域泛化问题(Federated Domain Generalization, FedDG)。(如Figure 1 (a)所示)

  2. 这篇文章提出一个基于连续频域空间差值(Continuous Frequency Space Interpolation, CFSI)的泛化联邦学习方法,可以在隐私保护的前提下提高联邦学习模型的泛化性。

  3. 这篇文章为提升本地模型训练的领域泛化能力,提出一个新的基于边界方向的交替学习策略(Boundary-oriented Episodic Learning scheme, BEL)。

  4. 这篇文章在两个医疗影像分割的DG基准测试上取得了FedDG设定下的最好成绩,并通过实验验证了方法的有效性。

3 方法

3.1 Federated Domain Generalization

首先介绍一下联邦学习的领域泛化问题设定。我们将数据和标注的联合分布定义为S=(X,Y)S=(X,Y)S=(X,Y),有KKK个不同分布的训练数据集S={ S1,S2,…,SK}S=\{ S^1, S^2, \dots, S^K\}S={ S1,S2,,SK}。其中每个数据集Sk={ (xik,yik)}i=1NkS^k=\{(x_i^k, y_i^k) \}_{i=1}^{N^k}Sk={ (xi

FedMD(Heterogenous Federated Learning via Model Distillation)是一种利用模型蒸馏的异构联邦学习训练方法,异构性分为数据的异构(statistical heterogeneity)和模型的异构(the differences of local models),模型的异构指每个参与者独立设计自己的模型,这在实际业务场景中很常见,因为不同参与者设备计算力不同,且出于隐私和知识产权考虑,不愿分享模型细节[^3]。 在很多联邦学习框架中,客户端发送模型参数给服务端聚合成全局模型,而FedMD提出发送模型在公共数据集上的预测分数,在服务端集成这些分数得到全局共识,客户端模型再学习这些共识。这样做有诸多好处,如每个客户端可根据自身条件训练适合自己的模型;避免因发送模型参数可能导致的数据隐私泄露风险;减少传输的数据量。不过,该方法也存在不足,每个客户端需牺牲一部分数据隐私组成共享数据集,且共享数据集的分布很重要[^4]。 FedMD的训练过程涉及迁移学习,每个客户端的本地模型先在公共数据上训练,再利用本地私有数据进行微调,之后进行后续训练[^5]。 ### 代码示例(示意) ```python # 以下是一个简化的示意代码,非完整可运行代码 # 模拟客户端在公共数据上训练 def train_on_public_data(local_model, public_data): # 训练逻辑 pass # 模拟客户端在私有数据上微调 def fine_tune_on_private_data(local_model, private_data): # 微调逻辑 pass # 模拟服务端集成预测分数得到全局共识 def get_global_consensus(predict_scores): # 集成逻辑 pass # 模拟客户端学习全局共识 def learn_global_consensus(local_model, global_consensus): # 学习逻辑 pass # 示例流程 local_model = ... public_data = ... private_data = ... # 客户端在公共数据上训练 train_on_public_data(local_model, public_data) # 客户端在私有数据上微调 fine_tune_on_private_data(local_model, private_data) # 客户端得到预测分数 predict_scores = ... # 服务端集成预测分数 global_consensus = get_global_consensus(predict_scores) # 客户端学习全局共识 learn_global_consensus(local_model, global_consensus) ```
评论 3
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值