视网膜图像质量分类:结合显著性图与卷积神经网络
背景与问题提出
视网膜图像质量评估(IQA)在糖尿病视网膜病变(DR)等疾病的筛查系统中是至关重要的一步。自动化分析要求视网膜图像达到一定的质量标准,以便进行特征提取。然而,当前的IQA算法存在一些问题。
传统的IQA方法使用手工特征,却未充分考虑人类视觉系统(HVS)的重要作用。这些方法主要分为两类:一类使用通用图像质量参数(如对比度、清晰度等),像直方图匹配和边缘幅度分布方法;另一类使用视网膜地标(如血管和多尺度滤波器组),但需要进行复杂且易出错的解剖地标分割,特别是对于低质量图像。此外,人类依靠HVS来识别低质量图像,而IQA具有主观性,依赖于用户对图像质量的感知。当前方法使用的手工特征在新数据集上的泛化能力较差,也未充分利用HVS的功能来改进IQA。
为了解决这些问题,我们提出了一种新的方法,该方法结合了局部显著性图的无监督信息和训练好的卷积神经网络(CNNs)的监督信息,以确定视网膜扫描图像的质量。
方法概述
我们的方法主要包括以下几个部分:
1. 显著性模型 :
- 图像预处理 :将原始的8位彩色图像进行强度归一化到[0, 1],并调整大小为512 × 512像素。
- 局部显著性图计算 :传统的显著性算法(如Itti - Koch模型)只能突出显示一个最显著的区域,而我们提出的“局部”显著性图方法,通过将神经生物学原理融入算法,计算每个像素的显著性值。具体步骤如下:
- 将调整大小后的彩色图像转换为灰度强度图像,并从中获取纹