前向传播和反向传播(举例说明)
假设神经网络结构如下图所示:有2个输入单元;隐含层为2个神经元;输出层也是2个神经元,隐含层和输出层各有1个偏置。
为了直观,这里初始化权重和偏置量,得到如下效果:
----前向传播----
隐含层神经元h1的输入:
代入数据可得:
假设激励函数用logistic函数,计算得隐含层神经元h1的输出:
同样的方法,可以得到隐含层神经元h2的输出为:
对输出层神经元重复这个过程,使用隐藏层神经元的输出作为输入。这样输出层神经元O1的输出为:
代入数据:
输出层神经元O1的输出:
同样的方法,可以得到输出层神经元O2的输出为:
----统计误差----
假如误差公式为:
如上图,O1的原始输出为0.01,而神经网络的输出为0.75136507,则其误差为:
同理可得,O2的误差为:
这样,总的误差为:
----反向传播----
对于w5,想知道其改变对总误差有多少影响,得求偏导:
根据链式法则:
在这个过程中,需要弄清楚每一个部分。
首先:
其次:
最后:
把以上三部分相乘,得到:
根据梯度下降原理,从当前的权重减去这个值(假设学习率为0.5),得:
同理,可以得到:
这样,输出层的所以权值就都更新了(先不管偏置),接下来看隐含层:
对w1求偏导:
用图表来描述上述链式法则求导的路径:
接下来,又是一部分一部分的计算:
>>>>>>>> 1
上式中,第一部分前边已经计算过了:
第二部分中,因为:
所以:
两部分相乘,得:
>>>>>>>> 2
>>>>>>>> 3
>>>>>>>> 4
这样对W1的偏导就出来了:
更新权值:
同理得到:
最后,更新了所有的权重! 当最初前馈传播时输入为0.05和0.1,网络上的误差是0.298371109。 在第一轮反向传播之后,总误差现在下降到0.291027924。 它可能看起来不太多,但是在重复此过程10,000次之后。例如,错误倾斜到0.000035085。
在这一点上,当前馈输入为0.05和0.1时,两个输出神经元产生0.015912196(相对于目标为0.01)和0.984065734(相对于目标为0.99)。
前向传播和反向传播(举例说明)相关推荐
- 3.3 前向传播与反向传播-机器学习笔记-斯坦福吴恩达教授
前向传播与反向传播 前向传播过程(Forward Propagation) 神经网络每层都包含有若干神经元,层间的神经元通过权值矩阵 ΘlΘ^lΘl 连接.一次信息传递过程可以如下描述: 第 j 层神 ...
- 003-神经网络基础-最优化,前向传播,反向传播
最优化: 包括前向传播和反向传播 前向传播: 由w和x到损失函数loss的过程叫做前向传播 反向传播: 根据梯度下降的概念,找到最优的w的过程叫做反向传播. 做一件什么事情呢? 根据前向传播的w得到的 ...
- 花书+吴恩达深度学习(十三)卷积神经网络 CNN 之运算过程(前向传播、反向传播)
目录 0. 前言 1. 单层卷积网络 2. 各参数维度 3. CNN 前向传播反向传播 如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~ 花书+吴恩达深度学习(十)卷积神经网络 ...
- 深度学习基础笔记——前向传播与反向传播
相关申明及相关参考: 体系学习地址 主要学习笔记地址 由于是文章阅读整合,依据个人情况标注排版, 不确定算不算转载,主要学习围绕AI浩的五万字总结,深度学习基础 如有侵权,请联系删除. 1前向传播与反 ...
- 神经网络的前向传播与反向传播
神经网络的前向传播和反向传播 相信一开始,大家可能都对神经网络的前向传播和反向传播很头疼,我之前也是一样,后来慢慢懂了,现在深感知识传递的重要性.因此现在我就把我的一点点对两者的理解表达一下,希望能帮 ...
- 神经网络理解:前向传播与反向传播
文章目录 参考资料 神经网络 前向传播 1. 输入层->隐含层 2. 隐含层->输出层 反向传播 1. 计算总误差 2. 隐藏层与输出层之间的权重更新 3. 输入层与隐藏层之间的权重更新 ...
- 对于CNN卷积神经网络的前向传播和反向传播的理解
对于CNN卷积神经网络的前向传播和反向传播的理解 前向传播示意图: 咋一看这张图,作为初学者可能会不知所云( ̄ω ̄=)?但是想要很好的理解前向传播的原理,我们得从这张图细说. 文章目录 对于CNN ...
- (二十四) 手推BP神经网络的前向传播和反向传播
手推BP神经网络的前向传播和反向传播 一.基本术语 1.监督学习与非监督学习 Supervised Learning有监督式学习: 输入的数据被称为训练数据,一个模型需要通过一个训练过程,在这个过程中 ...
- 神经网络前向传播和反向传播公式推导(公式+图解)
以如下的预测是否是猫的双层神经网络为例进行公式推导: 符号注解: n_x : 输入特征的数量 n_h : 隐藏层的节点数量 n_y : 输出层的节点数量 m : 样本数量 W :权重矩阵 b :偏置 ...
- 前向传播、反向传播(后向传播)、梯度下降、导数、链式法则
日萌社 人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新) 2.4 神经网络最优化过程 2.4.1 最优化(Optimiz ...
最新文章
- Redis 高级特性(2)—— 发布 订阅模式
- pyhton3 json.dumps 去除空格
- 雪儿--北京欢迎你!!!
- mac下Clion与QT引入FFmpeg库
- java scheduletask_spring中定时任务taskScheduler的详细介绍
- 两轮差速机器人舵机转轴示意图_灵活、快捷的机房巡检机器人少不了伺服电动轮...
- socket是什么?
- java学习_Java学习路线图
- 计算机结构工程专业,我是学计算机的,我想问一下怎么考结构工程师
- android 安装apk -99,Android APK 安装适配
- linux下查看网卡vid,Linux下查看USB设备的VID、PID命令
- 网站流量日志数据分析系统与技术架构
- 图像篡改检测C语言,图像篡改检测和定位(二)
- 对给定的AOV网络,产生所有的拓扑排序结果,并进行解法的动态演示
- QT控件最上层或最下层显示
- win10服务器网页打不开怎么办,Win10电脑有网但浏览器打不开网页怎么办?
- YourBatman表白了,在Java 27岁生日这天
- 【American English】美式发音,英语发音,美国音音标列表及发音
- 于数学极限定义的量词组合复杂度
- 竟然是 300 万的诈骗案!