Understanding the difficulty of training deep feedforward neural network 中,fan_in指第i层神经元个数,fan_out指第i+1层神经元个数。通常卷积网络不是全连接的,fan_in与fan_out的计算方式有所不同。
pytorch中:
fanin=channelsin×kernerwidth×kernerheightfan_{in}=channels_{in}\times kerner_{width} \times kerner_{height} fanin​=channelsin​×kernerwidth​×kernerheight​

fanout=channelsout×kernerwidth×kernerheightfan_{out}=channels_{out}\times kerner_{width} \times kerner_{height} fanout​=channelsout​×kernerwidth​×kernerheight​

根据对http://deeplearning.net/tutorial/lenet.html中的理解,以及https://stackoverflow.com/questions/42670274/how-to-calculate-fan-in-and-fan-out-in-xavier-initialization-for-neural-networks中的描述,另外一种更加精确的描述为:
fanin=channelsin×receptivefieldheight×receptivefieldwidthfan_in = channels_{in}\times receptivefield_{height}\times receptivefield_{width}fani​n=channelsin​×receptivefieldheight​×receptivefieldwidth​

fanin=channelsin×receptivefieldheight×receptivefieldwidthmaxpoolareafan_in = \frac{channels_{in}\times receptivefield_{height}\times receptivefield_{width}}{maxpool_{area}}fani​n=maxpoolarea​channelsin​×receptivefieldheight​×receptivefieldwidth​​

按照第二种说法,空洞卷积(dilated convolution)的感受野要比普通卷积大,receptivefieldreceptivefieldreceptivefield与kernelkernelkernel的大小不同,计算结果也不同。

深度学习中的fan_in与fan_out相关推荐

  1. 深度学习中的一些英文解释

    A: (1)anchors:锚点.(anchors(锚点)定义在RPN网络中) B: (1)bounding box:预测边界框. (2)Botton-up 3D proposal generatio ...

  2. 深度学习中的优化算法之MBGD

    之前在https://blog.csdn.net/fengbingchun/article/details/75351323 介绍过梯度下降,常见的梯度下降有三种形式:BGD.SGD.MBGD,它们的 ...

  3. 深度学习中的优化算法之BGD

    之前在https://blog.csdn.net/fengbingchun/article/details/75351323 介绍过梯度下降,常见的梯度下降有三种形式:BGD.SGD.MBGD,它们的 ...

  4. 深度学习中的优化简介

    深度学习算法在许多情况下都涉及到优化. 1. 学习和纯优化有什么不同 在大多数机器学习问题中,我们关注某些性能度量P,其定义于测试集上并且可能是不可解的.因此,我们只是间接地优化P.我们系统通过降低代 ...

  5. 1 图片channels_深度学习中各种图像库的图片读取方式

    深度学习中各种图像库的图片读取方式总结 在数据预处理过程中,经常需要写python代码搭建深度学习模型,不同的深度学习框架会有不同的读取数据方式(eg:Caffe的python接口默认BGR格式,Te ...

  6. 深度学习中的注意力机制(三)

    作者 | 蘑菇先生 来源 | NewBeeNLP原创出品 深度学习Attenion小综述系列: 深度学习中的注意力机制(一) 深度学习中的注意力机制(二) 目前深度学习中热点之一就是注意力机制(Att ...

  7. 深度学习中的注意力机制(二)

    作者 | 蘑菇先生 来源 | NewBeeNLP 目前深度学习中热点之一就是注意力机制(Attention Mechanisms).Attention源于人类视觉系统,当人类观察外界事物的时候,一般不 ...

  8. 深度学习中的注意力机制(一)

    作者 | 蘑菇先生 来源 | NewBeeNLP 头图 | CSDN下载自视觉中国 目前深度学习中热点之一就是注意力机制(Attention Mechanisms).Attention源于人类视觉系统 ...

  9. 深度学习中的优化算法串讲

    Datawhale原创 作者:谢文睿,Datawhale成员 寄语:优化算法是一个超参数,一个优化算法不是适合所有损失函数的,没有哪个优化算法是绝对的好或绝对的坏,是要根据损失函数判断的 本文对深度学 ...

最新文章

  1. python-range用法
  2. 推荐一款基于 SpringBoot 的接口快速开发框架
  3. python简单定义_python定义类的简单用法
  4. iOS之深入探究CADisplayLink和NSTimer的对比和内存溢出问题
  5. leetcode 174. Dungeon Game | 174. 地下城游戏(暴力递归->傻缓存->dp)
  6. 粒子群优化算法(Particle Swarm Optimization)的 Matlab(R2018b)代码实现
  7. C#XmlHelper操作Xml文档的帮助类
  8. ubuntu16.04 创建配置并使用虚拟环境
  9. html input提交按钮无法使用,无法找到并单击提交按钮使用mshtml.HTMLInputElement
  10. 超强 | 保险单据在线OCR,秒速识别保单信息
  11. java学习之道 --- 如何学习java?
  12. NetVLAD: CNN architecture for weakly supervised place recognition 翻译
  13. 特拉华大学计算机专业,特拉华大学电气与计算机工程专业设置及申请条件汇总 顶尖名校专业解析!...
  14. WinUSB安装以及与Linux通讯
  15. Python代码实战(初级篇)————4、猜数字
  16. 2004版最新核心期刊目录
  17. 计算机网络概述 网络的起源与发展
  18. 初学python数字猜游戏_python初学者的猜数字游戏
  19. C语言————二进制转十进制
  20. c++ hough变换代码_基于Haar小波和Log-Gabor变换的虹膜识别方法

热门文章

  1. MySQL赋权报错:’the right syntax to use near ‘identified by ‘password‘ with grant option‘
  2. ADSL 各种拨号错误代码解析
  3. Oracle事务管理
  4. java 调用 jacob_java访问com组件_jacob使用指南
  5. 弗吉尼亚理工计算机科学排名,弗吉尼亚理工学院暨州立大学计算机科学computer science专业排名第89名(2020THE泰晤士高等教育世界大学排名)...
  6. 需求分析——用HMW分析法需求
  7. html复制并弹窗提示已复制,js复制操做,复制成功弹出提示框
  8. minixml中文手册
  9. 2021百度之星初赛二(1001 -- 1003)
  10. 小白必看!OWASP top 10详解