可解释人工智能与混合肩窥攻击防护认证方法
1. 可解释人工智能(XAI)方法
1.1 数据生成与模型训练
我们的方法聚焦于生成接近感兴趣点(POI)的数据点(这里指图像),并使这些数据适配可解释模型(XAI 模型),以此理解图像片段(POI)与神经元激活之间的关联。具体操作步骤如下:
1. 图像分割 :将 POI 图像分割成超像素。
2. 样本生成 :通过开启或关闭超像素(即保留超像素原状或用黑色替代)来生成多个新样本。
3. 模型输入与标签保存 :把这些新样本作为预训练模型的输入,获取目标层的相应激活值,并将其保存为标签,用于训练 XAI 模型。
1.2 权重设置与距离度量
为实现局部解释,权重并非随机设定,而是依据与 POI 的相似度来确定。在生成超像素时,每个超像素有 50%的概率被包含。距离度量基于样本图像中包含的超像素数量与图像总片段数量的比例,该比例体现了样本与 POI 的相似程度。
1.3 模型选择与成本函数
为减少过拟合,我们倾向于使用岭回归。线性回归的成本函数如下:
[Cost Function = \sum [Y_i - F(X_i)]^2 \quad (1)]
其中,对于每个数据实例 (i),(Y) 是实际输出标签,(X) 是输入特征,(F) 是模型。XAI 模型的输入特征数量取决于超像素数量,超像素数量增加可能导致过拟合。因此,我们使用带有正则化参数 (k) 的岭回归,成本函数变为:
[Cost Function