1.covariate shift

在论文中经常碰到covariate shift这个词,网上相关的中文解释比较少。你可能会在介绍深度学习Batch Normalization方法的论文到中看到covariate shift这个词,并且所有看过这篇论文的或者实际做过工程的人,都知道BN这种归一化手段很好用,可以避免covariate shift

那么covariate shift到底是什么?
不用想得太复杂,covariate shift最早只是机器学习中的一个问题。同时迁移学习会经常涉及到这个概念。
假设x是属于特征空间的某一样本点,y是标签。covariate这个词,其实就是指这里的x,那么covariate shift可以直接根据字面意思去理解:样本点x的变化。
这么简单?没错就是这么简单!

我们讲的规范一点:
假设q1(x)是测试集中一个样本点的概率密度,q0(x)是训练集中一个样本点的概率密度。最终我们估计一个条件概率密度p(y|x,θ),它由x和一组参数θ={θ1,θ2......θm}所决定。对于一组参数来说,对应loss(θ)函数评估性能的好坏
综上,当我们找出在q0(x)分布上最优的一组θ'时,能否保证q1(x)上测试时也最好呢?
传统机器学习假设训练集和测试集是独立同分布的,即q0(x)=q1(x),所以可以推出最优θ'依然可以保证q1(x)最优。但现实当中这个假设往往不成立,伴随新数据产生,老数据会过时,当q0(x)不再等于q1(x)时,就被称作covariate shift

2.Internal covariate shift

对于深度学习这种包含很多隐层的网络结构,在训练过程中,因为各层参数老在变,所以每个隐层都会面临covariate shift的问题,也就是在训练过程中,隐层的输入分布老是变来变去,这就是所谓的“Internal Covariate Shift”,Internal指的是深层网络的隐层,是发生在网络内部的事情,而不是covariate shift问题只发生在输入层。

covariate shift和Internal covariate shift相关推荐

  1. 论文阅读Batch Normalization: Accelerating Deep Network Training byReducing Internal Covariate Shift

    论文阅读Batch Normalization: Accelerating Deep Network Training byReducing Internal Covariate Shift 全文翻译 ...

  2. Batch normalization:accelerating deep network training by reducing internal covariate shift的笔记

    说实话,这篇paper看了很久,,到现在对里面的一些东西还不是很好的理解. 下面是我的理解,当同行看到的话,留言交流交流啊!!!!! 这篇文章的中心点:围绕着如何降低  internal covari ...

  3. 读文献——《Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift》

    在自己阅读文章之前,通过网上大神的解读先了解了一下这篇文章的大意,英文不够好的惭愧... 大佬的文章在https://blog.csdn.net/happynear/article/details/4 ...

  4. 批归一化《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》

    批归一化<Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift ...

  5. Batch Normalization + Internal Covariate Shift(论文理解)

    在看压缩神经网络相关的论文中,总是能看见 Batch Normalization,在网上找了很多博客看,但是一直处于一种似懂非懂的状态.于是去找了原论文<Batch Normalization: ...

  6. Batch Normalization:Accelerating Deep Network Training by Reducing Internal Covariate Shift 论文笔记

    0 摘要 当前神经网络层之前的神经网络层的参数变化,会引起神经网络每一层输入数据的分布产生变化,这使得训练一个深度神经网络变得复杂.通过设置较小的学习率以及更谨慎的初始化参数减慢了训练,并且由于非线性 ...

  7. 【BN】《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》

    ICML-2015 在 CIFAR-10 上的小实验可以参考如下博客: [Keras-Inception v2]CIFAR-10 文章目录 1 Background and Motivation 2 ...

  8. Batch Normalization:Accelerating Deep Network Training by Reducing Internal Covariate Shift(BN)

    internal covariate shift(ics):训练深度神经网络是复杂的,因为在训练过程中,每层的输入分布会随着之前层的参数变化而发生变化.所以训练需要更小的学习速度和careful参数初 ...

  9. 《Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift》阅读笔记与实现

    今年过年之前,MSRA和Google相继在ImagenNet图像识别数据集上报告他们的效果超越了人类水平,下面将分两期介绍两者的算法细节. 这次先讲Google的这篇<Batch Normali ...

最新文章

  1. mysql安装必要组件_openstack必须安装哪些组件
  2. python图片裁剪对比_Python自动抢视频红包,仅供学习!
  3. 正面管教PHP交流互助会,父母的心态决定孩子的状态/慧育家正面管教家长讲师认证班...
  4. codewars-random(2)
  5. 怎么转换html文件为mp3,如何把音频转换成mp3_音频文件怎么转mp3格式-系统城
  6. Error:Can’t find import 2508 in coredll.dll问题解决
  7. 如何查看SQL Server2000执行过的SQL语句
  8. H3C认证无线互联网络专家
  9. Linux后门入侵检测工具 rkhunter 安装使用
  10. NUC1937 B.函数【水题】
  11. 委托的定义和使用入门-天轰穿
  12. 神经网络算法的关键参数,神经网络计算工作原理
  13. 重磅!中国首家互联网银行联手腾讯、华为各大APP,最高5万额度,疯狂提额100亿!!!...
  14. Newoupui-pak配置失败怎么处理?
  15. 在华为 Kylin V10 SP1操作系统,HUAWEI,Kunpeng 920 CPU(4Cores)单机上模拟部署生产环境TiDB集群...
  16. 397_压缩图片到一定大小(质量)
  17. Python word_cloud 样例 标签云系列(三)
  18. python提取json中的值,在Python中从JSON提取特定值
  19. 用C++评选优秀教师和优秀学生
  20. 【kafka】连接kafka报错 partitions have leader brokers without a matching listener

热门文章

  1. c语言8255控制流水灯程序,8255LED流水灯控制.doc
  2. 人力资源管理(附微第2版) pdf
  3. 8款世界级Webmail工具推荐
  4. C# Winform中RichTextBox如何设置文本某段字体的颜色
  5. Ubuntu 20.04 TLS安装(踩坑版)
  6. 阿里云OSS转移至七牛云存储(详细简洁教程)
  7. 多apk发布的Android程序的adb安装——adb install-multiple
  8. 射频通路 隔直_偏置电路及其构成的射频功率放大器的制作方法
  9. 房地产业务学习(06)-开发项目管理的难点分析IT系统价值
  10. 利用Python解决生物问题-获取反向互补序列