克服医疗领域AI应用挑战:决策系统DINAR2
1. 引言
人工智能(AI)系统普遍面临一个问题,即如何使AI决策规则与应用环境的具体情况相协调,包括规则应用的地点、时间以及适用的用户。在医学领域,这一问题尤为突出。不同国家,甚至同一医院的不同医生,对医学术语、症状和诊断的理解都可能存在差异。此外,医生的主观性和患者对自身病情描述的主观性相互叠加。而且,医生并非总是对AI的帮助感兴趣。即使AI在解决问题方面比普通医生更出色,也不意味着在特定情况下特定医生就需要它。对医生来说,与AI沟通所花费的时间成本可能比沟通带来的益处更大。这些因素都阻碍了AI在医学领域的应用。下面我们将详细探讨这些问题。
2. 引入医疗AI应用的问题
2.1 领域过拟合
在机器学习和深度学习方法中,过拟合指的是学习误差较小,但泛化误差(即确定未知数据时的误差)可能较大的情况。在医学领域,这种情况尤为明显。这不仅是因为医疗数据集通常具有有限的病例数量和大量的字段,更重要的是获取这些数据的地点和时间具有特殊性。例如,如果训练样本是1990 - 2015年波士顿部分医院网络(Partners系统)的患者数据,那么基于这些数据构建的AI系统能否在2022年用于其他县和地区呢?AI模型往往比较脆弱,在一个医院的数据上表现良好,但应用到其他机构的数据时可能会失败。因此,必须仔细评估所构建模型的泛化效果。对于AI医疗设备的临床应用,验证尤为重要,其整体性能需要通过临床试验进行比传统医疗设备更彻底的确认。
2.2 术语问题
AI的输入错误包括对临床概念的误解、误报临床研究的目标以及医生在患者就诊时的发现,还有对临床术语的混淆和拼写错误。医疗数据的描述取决
超级会员免费看
订阅专栏 解锁全文
1482

被折叠的 条评论
为什么被折叠?



