点击上方“小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达

来自 | 知乎  作者丨没头脑

链接丨https://zhuanlan.zhihu.com/p/75539170

目录

  • Local Response Normalization

  • Batch Normalization

  • Weight Normalization

  • Layer Normalization

  • Instance Normalization

  • Consine Normalization

  • Group Normalization

1. Local Response Normalization

LRN 最早应该是出现在 2012 年的 AlexNet 中的,其主要思想是:借鉴“侧抑制”(Lateral Inhibitio)的思想实现局部神经元抑制,即使得局部的神经元产生竞争机制,使其中相应值较大的将变得更大,响应值较小的将变得更小。此外,作者在论文中指出使用 LRN 能减少其 AlexNet 在 ILSVRC-2012 上的 top-1 错误率 1.4% 和 top-5 错误率 1.2%,效果较为显著。

其中,  表示输入中第  个 FeatureMap 中位于  的响应值,  表示输出中第  个 FeatureMap 中位于  的响应值,  都是由验证集所决定的超参数 (Hyper-Parameter)。论文中的设定为:  。

在 2015 年的 VGG 中,该论文指出 LRN 在 VGG 并无任何用处:

此后,随着 Batch Normalization 等不同 Normalization 的出现,LRN 也开始逐渐落寞。

PyTorch 相关文档:

2. Batch Normalization

BN 应该算是目前使用最多的 Normalization 操作了,现在甚至可以说是 CNN 网络的标配。自 2015 年 2 月的 Inception V2(https://arxiv.org/pdf/1502.03167.pdf) 提出之后,也引出了后续许多不同的 Normalization 的提出。

作者在论文中指出,提出 Batch Normalization 是目的为了解决 ‘internal covariate shift’ 现象(这个应该是属于机器学习的问题,我无法进行详细表达,建议查看其他文章),经过测试后,发现使用 BN 能加速神经网络的收敛速度,并使得神经网络对于初始化的敏感度下降。

在 深度学习中 Batch Normalization为什么效果好?(https://www.zhihu.com/question/38102762/answer/85238569)中,答者指出其实 BN 解决的是梯度消失问题(Gradient Vanishing Problem),我感觉其实有点道理的。)

其中,  为输入数据,  为数据平均值,  为数据方差,  和  为学习参数。此外,  和  是统计量,随着 Batch 的迭代不断更新(一般实现都会对其做滑动平均,不然当 Batch Size 较小时,其统计值的波动会很大,导致网络无法收敛的)。

在 BN 中,作者之所以加上  和  这两个仿射参数(Affine Parameter),是为了使得经过 BN 处理后的数据仍可以恢复到之前的分布,从而提升了网络结构的 Capacity,即在做出一定的改变的同时,仍保留之前的能力。

此外,除了 BN 背后的原理这一话题外,大家对 Batch-normalized 应该放在非线性激活层的前面还是后面?这一话题的讨论也比较激烈,并没有达成统一的观点,只是大部分实验表明BN 放在非线性激活层后比较好,不过仍需要具体任务具体分析。

PyTorch 相关文档:

注意,在 PyTorch 中冻结 BN Layer,不仅需要对将其参数的 requires_grad 设为 False,还需要将该层的 training 设为 False,即调用 eval 函数;否则,将会导致统计量不断更新,而仿射参数却一直处于冻结状态。此外,一般都会设置 track_running_state 为 True,以减小 Batch Size 所造成的统计量波动。

3. Weight Normalization

在 2016 年 2 月的 Weight Normalization: A Simple Reparameterization to Accelerate Training of Deep Neural Networks (https://arxiv.org/pdf/1602.07868.pdf)中,作者提出了与 BN 完全不同的 Normalization 操作:Weight Normalization,并指出:相较于 BN,WN 摆脱了对于 Batch 的依赖,这意味这 WN 完全可以用在 RNN 网络中(如:LSTM )以及对于噪声敏感的任务(如:强化学习、生成式模型)中;此外,WN 的计算成本低,可以减少模型的运行时间。

与 BN 不同的是, WN 并不是对输入的特征数据进行归一化操作,而是对神经网络中指定的层的参数做归一化操作。

在论文中,作者将神经网络的层表示为  ,其中,  为权重向量,  为偏置参数,  为输入向量,  为非线性激活函数。而 WN 就是对  做归一化,将  分解为  。其中,  为单位向量,代表  的方向,  为标量,代表  的长度,  为  的欧式范数。

在 详解深度学习中的Normalization,BN/LN/WN https://zhuanlan.zhihu.com/p/33173246中,作者指出:WN 与 BN 其实是相似的。

论文作者同样提到了这一点。

PyTorch 相关文档:

4. Layer Normalization

在 2016 年 7 月的 Layer Normalization (https://arxiv.org/pdf/1607.06450.pdf)中,作者提出了一种类似与 BN 的操作:Layer Normalization,提出 LN 的主要目的是为了解决 BN 对 Batch Size 和内存的依赖以及减少 Normalization 所需时间。

LN 与 BN 的不同之处在于:BN 是对一个 Batch 中的所有样本的不同维度做 Normalization,而 LN 是对单个样本中的所有维度做 Normalization。当然,两者的数学公式长得都一样,都是求平均值、方差,做归一化后在做仿射变换。

Batch Normalization 与 Layer Normalization 的区别:

举例来说,对于  的数据,BN 计算得到的统计量的  为  ,而 LN 计算得到的统计量的  为  。

(左侧:Batch Normalization,右侧:Layer Normalization)

PyTorch 相关文档:

5. Instance Normalization

在 2016 年 7 月的 Instance Normalization: The Missing Ingredient for Fast Stylization (https://arxiv.org/pdf/1607.08022.pdf)中,作者提出与 LN 类似的操作:Instance Normalization。在论文中,作者指出在图像风格迁移任务中,生成式模型计算得到的 Feature Map 的各个 Channel 的均值与方差将影响到所生成图像的风格。故,作者提出了 IN,在 Channel 层面对输入数据进行归一化,再使用目标图像的 Channel 的均值与方差对结果进行 '去归一化'。

值得一提的是,IN 与LN 类似,仅对单个样本进行归一化,但是 IN 并不进行仿射变换。

举例来说,对于  的数据,IN 计算得到的统计量的  为  。

PyTorch 相关文档:

6. Cosine Normalization

在 2017 年 2 月的

Cosine Normalization: Using Cosine Similarity Instead of Dot Product in Neural Networks (https://arxiv.org/pdf/1702.05870.pdf)

中,作者提出了 Cosine Normalization,不对输入数据做归一化,也不对参数做归一化,而是对输入数据与参数的点乘做出改动,改为计算两者的余弦相似度  ,即  变为  。

CN 将模型的输出进行了归一化,使得输出有界,但是也因此丢弃了原本输出中所含的 Scale 信息,所以这个是否值得也有待进一步探讨。

PyTorch 相关文档:

7. Group Normalization

在 2018 年 3 月的 Group Normalization(https://arxiv.org/pdf/1803.08494.pdf)中,作者提出了 Group Normalization,与 BN 相比,GN 的改进有两点:不再依赖 Batch Size,计算成本可由超参数进行调节。

作者在论文中指出,BN 对于 Batch Size 的依赖使得其无法较好的运用在因内存限制而使用较小 Batch Size 的任务上(如:detection, segmentation, video),故作者令 GN 仅对单个样本进行 Normalization 操作。此外,GN 更像是 LN 与 IN 的一般形式,当  时,GN 等价于 LN;当  时,GN 等价于 IN。

在 如何区分并记住常见的几种 Normalization 算法(https://zhuanlan.zhihu.com/p/69659844) 中,作者给出了一张图像,直观的给出了以上 Normalization 的不同之处:

举例来说,对于  的数据,GN 计算得到的统计量的  为  。

PyTorch 相关文档:

下载1:OpenCV-Contrib扩展模块中文版教程

在「小白学视觉」公众号后台回复:扩展模块中文教程即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。

下载2:Python视觉实战项目52讲

在「小白学视觉」公众号后台回复:Python视觉实战项目即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。

下载3:OpenCV实战项目20讲

在「小白学视觉」公众号后台回复:OpenCV实战项目20讲即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。

交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~

综述:神经网络中 Normalization 的发展历程相关推荐

  1. 7 大主题!梳理神经网络中 Normalization 的发展历程

    点击上方"小白学视觉",选择加"星标"或"置顶" 重磅干货,第一时间送达 本篇文章用于总结近年来神经网络中 Normalization 操作 ...

  2. Normalization 的发展历程

    作者丨没头脑@知乎 来源丨https://zhuanlan.zhihu.com/p/75539170 编辑丨极市平台 目录 Local Response Normalization Batch Nor ...

  3. GAMES Webinar 222期CAD工业软件——梅敬成博士访谈:三维CAD的发展历程、未来趋势及共性关键技术

    以CAD/CAE/CAM为代表的计算机辅助技术 (CAx) 及其软件研发在现代工业中发挥着极为巨大的作用.3月24日至4月12日,GAMES 执委会CAD/CAE/CAM专题组邀请了八位相关领域的知名 ...

  4. DeepMind发布最新《神经网络中持续学习》综述论文!

    来源:AI科技评论 本文约3200字,建议阅读6分钟 本文重点介绍一些神经网络中最有前途和最有影响力的方向. 在过去的几十年中,人工智能研究取得了巨大进展,但是它主要依赖于固定的数据集和固定的环境. ...

  5. 焦李成教授谈深度神经网络发展历程

    来源:西电人工智能学院 摘要:焦李成教授谈深度神经网络发展历程 2018年11月18日下午,计算机科学与技术学部主任.人工智能学院焦李成教授在成都参加了由中国人工智能学会主办的人工智能大讲堂并做特邀报 ...

  6. 纵观计算机网络发展历程,人工智能在计算机网络技术中的应用分析

    人工智能在计算机网络技术中的应用分析 罗思浩 宁波工程学院 315020 摘要:人工智能技术随着科学技术的发展,目前已相当成熟,其拥有众多优势,可对计算机技术存在的诸多问题予以解决.在此背景之下,本文 ...

  7. 卷积神经网络发展历程及经典论文

    2012年,AlexNet横空出世,以极大优势赢得了ImageNet 2012图像识别挑战赛的冠军,也引发研究人员对早期神经网络.卷积神经网络的思考和再研究.至此,卷积神经网络开始领衔掀起此轮人工智能 ...

  8. 医院后勤保障服务的发展历程综述

    医院后勤保障服务的发展历程综述 作者:顾家荣 魏海鲁 吴锦华 [摘要]我国医院后勤保障系统的发展经历了一个较长的历史发展过程,经过分析和预测大致分为经过四个历史阶段.即第一阶段-供给型与计划型管理.第 ...

  9. 一文读懂AI 与神经网络发展历程

    https://www.toutiao.com/a6701263661391938059/ AI与神经网络 人工智能已经发展了六七十年,经历了几度繁荣和衰落.虽然已取得不错的进展,但是与理想中的人工智 ...

最新文章

  1. pyhton 安装pip 以及 numpy (解决python:ModuleNotFoundError:No module named numpy 等类似缺包问题
  2. 皮尔逊相关系数 定义+python代码实现 (与王印讨论公式)
  3. 恒位油杯故障原因_厂家详解干式真空泵故障分析与保养办法
  4. 小米国际电商业务总经理赵程:电商人才的心路旅程
  5. 并发的发展历史-线程的出现
  6. 【翻译】Scott Mitchell的ASP.NET2.0数据指南中文版索引
  7. 点击打开自己博客地址通过默认浏览器
  8. 阿里云linux主机安装qt报错:缺少libxkbcommon-x11.so.0
  9. S3C2440与SDRAM的地址连线分析
  10. tdk怎么设置_你真的做好网站的标题、描述、关键词(TDK)设置了吗?
  11. 多线程死锁及解决办法
  12. eclipse--基本配置
  13. Linux设置 鼠标滚轮方向,如何在Ubuntu中反转鼠标滚动方向(又名自然滚动) | MOS86...
  14. mysql lob字段_数据库的LOB大字段的一些总结
  15. 在Xubuntu上安装中文输入法
  16. LAZARUS APT利用恶意word文档攻击MAC用户
  17. sketch如何在手机中预览
  18. 中国十大无线耳机排行榜,音质好配置高的蓝牙耳机分享
  19. three.js使用光线投射对象Raycaster在屏幕中拾取/选取对象(vue中使用three.js60)
  20. 生成式模型的发展历程

热门文章

  1. 一文读懂对抗机器学习Universal adversarial perturbations | CSDN博文精选
  2. NLP为RPA带来了什么价值?
  3. 深度学习在自动驾驶感知领域的应用
  4. 火爆GitHub的《机器学习100天》,有人把它翻译成了中文版
  5. 港中大、商汤开源目标检测工具包mmdetection,对比Detectron如何?
  6. 为什么让A.I.“顶天立地”需要6个多月?
  7. AI一分钟 | 科大讯飞2017年度财报:营收54.45亿元,净利润4.35亿元;滴滴首谈无人驾驶战略:只做软件不造车
  8. Python需求增速达174%,AI人才缺口仍超百万!这份来自2017年的实际招聘数据如是说
  9. SpringBoot 搭建基于 minio 的高性能存储服务
  10. 盘点 Github 上的高仿 app 项目