LRN ( Local Response Normalization) 局部响应归一化层

本文深入浅出地介绍了LRN(Local Response Normalization)层的工作原理及其公式应用。LRN层通过对输入值进行特定的数学运算来实现归一化,进而帮助神经网络更好地训练。文章详细解释了如何计算归一化后的值,并探讨了关键参数如n/2的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

LRN ( Local Response Normalization) 局部响应归一化层


从网上找了很多博客,不知道为何就是不能把这个公式说的很透,可能是原理本身不好解释的原因,笔者希望能够用简洁的语言,能把LRN 解释的更加通俗易懂


  • 首先在弄懂原理之前,希望读者能够认真的看两边公式,而不是直接看别人解释的原理
  • bix,y 是归一化后的值,i是通道的位置,代表更新第几个通道的值,x与y代表待更新像素的位置。
  • aix,y 是输入值,是激活函数Relu的输出值
  • k、alpha、beta、n/2 都是自定义系数,读者可以先不用理会有什么用

总结的来说,是对输入值 aix,y 除以一个数达到归一化的目的

LRN

N是总的通道数,不同通道累加的平方和,累加效果如下图。
累加多少个通道的像素值呢?这个是取决于自定义系数 n/2 如果读者熟悉tensorflow的话:官方文档API如下

sqr_sum[a, b, c, d] = sum(input[a,b, c, d - depth_radius : d + depth_radius + 1] ** 2)
output = input / (bias +alpha * sqr_sum) ** beta

就是参数depth_radius设置;第一次看到文档介绍感觉到云里雾里的读者也不用担心,完全可以不理解api的介绍,只要知道累加多少个通道的像素值,取决于你的参数设置,至于设置为多少,那就多查看文献吧。

这里写图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值