【阅读笔记】Layer-wise relevance propagation for neural networks with local renormalization layers

本文介绍了如何将Layer-wise Relevance Propagation (LRP) 方法应用于具有局部归一化层的神经网络,以研究图像像素与分类结果之间的相关性。通过LRP,可以反向传播相关性,理解模型决策过程。文章探讨了LRP的两种规则——ϵ-rule和β-rule,并尝试将其扩展到非线性局部归一化层。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Binder, Alexander, et al. “Layer-wise relevance propagation for neural networks with local renormalization layers.” International Conference on Artificial Neural Networks. Springer, Cham, 2016.

本文是探究的是图片上的像素与最终结果的相关性。创新点是把 Layer-wise Relevance Propagation (LRP) 扩展到了非线性映射上。

Layer-wise Relevance Propagation for Neural Networks

在神经网络中,每一层的输出 x j x_j xj都是输入 x i x_i xi和激活函数 g g g的结果(作者写着主要是约定一下各个符号的意思):
x j = g ( ∑ I w i j x i + b ) x_j=g(\sum_{I}w_{ij}x_i+b) xj=g(Iwijxi+b)

给定一个图像 x x x和分类器 f f f x x x上每一个像素 p p p都有一个 pixel-wise relevance score R p ( 1 ) R^{(1)}_p Rp(1)使得:
f ( x ) = ∑ p R p ( 1 ) f(x)=\sum_pR^{(1)}_p f(x)=pRp

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值