

i表示第i个核在位置(x,y)运用激活函数ReLU后的输出,n是同一位置上临近的kernal map的数目,N是kernal的总数。参数K,n,alpha,belta都是超参数,一般设置k=2,n=5,aloha=1*e-4,beta=0.75。
Local Response Nomalization在CNN中设计是什么意图?
LRN和LCN都 是为了引入局部竞争机制,个人理解是:在相邻卷积核生成的feature map之间引入竞争,从而有些本来在feature map中显著的特征在A中更显著,而在相邻的其他feature map中被抑制,这样让不同卷积核产生的feature map之间的相关性变小。
参考资料
【深度学习技术】LRN 局部响应归一化
深度学习的局部响应归一化LRN(Local Response Normalization)理解
本文深入解析了深度学习中LRN(Local Response Normalization)的概念及其作用。LRN旨在通过引入局部竞争机制,增强显著特征的同时抑制相邻featuremap中的特征,减少各卷积核产生的featuremap之间的相关性,提升模型性能。

被折叠的 条评论
为什么被折叠?



