其中LRN的公式如下:

论文中说 Denoting by aix,y the activity of a neuron computed by applying kernel i at position (x, y) and then applying the ReLU nonlinearity, the response-normalized activity bix,y is given by the expression

LRN是用在激活之后,而alexnet中激活函数用的是relu 所以结果都是大于等于0的激活值。而且这个是模仿生物上的一个叫侧抑制概念。

其作用是对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强了模型的泛化能力。

这个侧抑制名字就取得很有意思。一般我们如果要抑制某个神经元周围的神经元,可以直接最大池化。但是这个侧抑制是在通道维度上进行抑制。

从公式我们可以看出 其实就是在通道维度上取个半径r=n/2  对于通道上的任一点取他半径内的点进行平方累加(这里取值注意不要超过边界)。

从公式角度分析下为什么叫局部归一化(这只是我个人理解)

对于归一化很好理解将数据映射到(0, 1)之间但是上面的公式好像不是很好理解

这里我们取几个特殊值分析下: k=0, alpha=1  beta=1/2  j 从0取到N-1  (N 为通道维度)

上面公式 变成

bi_xy = ai_xy /(∑j  aj_xy **2)**1/2   j 从0取到N-1   这时候公式不就是 x`= x / ||x||

但是我们公式只取了半径r=n/2内的值来做归一化所以叫做局部归一化

抑制也是对通道上半径r内的神经元进行抑制。如果我们将每一个特征图当做学到的一种特征,不同的特征图学到的是不同的特征,那么不同的通道上相同位置神经元应该也学到不同的信息才行,所以进行这个局部归一化的理由貌似也说的通,使得其中响应比较大的值变得相对更大,响应比较小的值相对更小。形象店说就是如果某个通道上的神经元学到了某种特征,就可以广播下告诉半径r=n/2内不同通道相同位置的神经元,我已经先下手为强了,领先你一个身为,你就不要在继续舔了,没戏~

遗憾的是虽然我们上面分析了这么多,后续就有学者提出了这个其实没什么卵用,这就很尴尬~

与君共勉~

LRN(Local Response Normalization)局部归一化分析相关推荐

  1. LRN (Local Response Normalization,即局部响应归一化层)

    LRN (Local Response Normalization,即局部响应归一化层) (一)先看看归一化吧 什么是归一化? 归一化化是归纳统一样本的统计分布性.就是要把你需要处理的数据经过处理后( ...

  2. 局部响应归一化LRN (Local Response Normalization)

    一.LRN技术介绍: LRN(Local Response Normalization) 是一种提高深度学习准确度的技术方法. LRN 一般是在激活. 池化函数后的一种方法.在 ALexNet 中, ...

  3. 局部响应归一化LRN(Local Response Normalization)

    LRN一般是在激活.池化后进行的一中处理方法. 其主要思想是:对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强了模型的泛化能力. 更加详细可看:ht ...

  4. 局部响应归一化(Local Response Normalization,LRN)和批量归一化(Batch Normalization,BN)的区别

    为什么要归一化? 归一化已成为深度神经网络中的一个重要步骤,它可以弥补ReLU.ELU等激活函数无界性的问题.有了这些激活函数,输出层就不会被限制在一个有限的范围内(比如tanh的[−1,1][-1, ...

  5. 局部响应归一化(Local Response Normalization)

    LRN是一种提高深度学习准确度的技术方法.LRN一般是在激活.池化函数后的一种方法.  在ALexNet中,提出了LRN层,对局部神经元的活动创建竞争机制,使其中响应比较大对值变得相对更大,并抑制其他 ...

  6. Local Response Normalization作用——对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强了模型的泛化能力...

    AlexNet将LeNet的思想发扬光大,把CNN的基本原理应用到了很深很宽的网络中.AlexNet主要使用到的新技术点如下. (1)成功使用ReLU作为CNN的激活函数,并验证其效果在较深的网络超过 ...

  7. AlexNet中的LRN(Local Response Normalization)

    神经网络初学者,没有什么理论基础,偶然看到个ImageNet,就准备从其入手,先弄懂每层的含义,其中这个LRN层真是让人百思不得其解,搜索了下,给出的介绍比较少.为什么会比较少呢,搜索到最后我得出的结 ...

  8. Alexnet LRN层和conv2局部连接

    LRN(local response norm)局部归一 AlexNet本文出自NIPS2012,作者是大神Alex Krizhevsky,属于多伦多大学Hinton组.当年取得了ImageNet最好 ...

  9. 论文分享:「FED BN」使用LOCAL BATCH NORMALIZATION方法解决Non-iid问题

    ‍ ‍ 本次分享内容基于ICLR 2021收录的一篇文章:<FED BN: FEDERATED LEARNING ON NON-IID FEATURES VIA LOCAL BATCH NORM ...

最新文章

  1. 终端输入参数:argparse和sys.argv[]的用法
  2. SQL Server 连接字符串和身份验证 学习
  3. 最新开源:3TS腾讯事务处理技术验证系统(下)
  4. 《机器学习》 周志华学习笔记第六章 支持向量机(课后习题)python 实现
  5. Web Api 中使用 PCM TO WAV 的语音操作
  6. 高盛:大象转身,开启科技金融转型之路
  7. Spark常用端口号
  8. 车牌字符识别算法原理
  9. 优秀的思维导图怎么制作
  10. 微信小程序 后端接口(thinkphp)
  11. mysql统计字数_使用SQL确定文本字段的字数统计
  12. 电信光猫F660 4台限制破解
  13. 东大22春大学语文X《大学语文》在线平时作业1_100分资料非答案
  14. 网络对抗 Exp9 Web安全基础 20154311 王卓然
  15. 18V转12V的芯片,PW2312的BOM和DEMO文件
  16. 浙江中医药OJ暑期训练五题解
  17. DAO概念板块代币大盘点,你又把握了几个?
  18. PTA 4 sdut-oop-5 计算长方体和四棱锥的表面积和体积(类的继承)分数 20
  19. 微信登陆信息不回调WXEntryActivity-onResp()
  20. Spring Boot 实现 AI 人脸识别功能,So Easy!

热门文章

  1. 【2022-09-15】小米软开两轮面经
  2. SELinux工作模式设置(getenforce、setenforce和sestatus命令)
  3. VMA与page fault
  4. 小米全面屏闪烁问题分析
  5. linux 查看用户组和所有用户
  6. linux 时间同步的2种方法
  7. Rust能力养成之(3):强化分支
  8. iOS开发学习的站点
  9. 春节假期python
  10. Linux硬盘的检测--smartctl详细介绍