隐私保护开放创新的联邦学习助力数字健康
1. 引言
利用人工智能技术增强或辅助医疗应用,有望提高医疗效率、改善医疗服务效果,造福人类福祉。数据驱动的机器学习和深度学习在医疗等众多行业取得了成功。然而,训练深度学习模型通常需要大量训练样本,而单个医疗数据集往往难以满足这一需求。
个人健康信息属于高度敏感数据,包含诊断、医疗相关信息以及个人可识别细节。从消费者角度看,数据隐私是公众关注的重点,数据泄露会降低公众对数据的信任。因此,医疗数据受到严格法律法规的监管,以防止重新识别和数据泄露风险。
虽然这些标准保障了安全和隐私,但也增加了医疗信息共享和关联的难度,使得有价值的数据常局限于单个机构,难以用于分析,阻碍了深度学习在医疗领域的应用。为了在保护用户隐私的同时挖掘现有医疗数据集的价值,需要一种适用于敏感数据(尤其是医疗领域)的新型深度学习技术。
联邦学习(FL)应运而生,它是一种新的机器学习范式,无需直接访问每个贡献者的私有数据(如医院、设备或用户数据),就能学习全局机器学习模型。其目标是构建一个协作训练框架,每个参与者可使用自己的数据独立训练模型,然后协作共享模型信息,而无需共享训练数据。优化框架指导整个学习过程,无需集中收集或共享私有数据,共享信息包括模型参数和梯度。这使得机器学习算法能够从不同位置的广泛数据集中学习,本质上实现了机器学习过程的“去中心化”。这些特性使联邦学习特别适合处理医疗等敏感数据,无需直接共享数据即可开发模型。
直观来看,联邦学习与行业中流行的开放创新概念高度契合。开放创新是一种基于有目的管理的跨组织边界知识流动的分布式创新过程。以往创新主要由企业内部开展,如今人们认识到开放创新的价值,外部参与能带来新知识、专业技能和
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



