←上一篇 ↓↑ 下一篇→
1.8 带有神经网络的梯度消失 回到目录 1.10 长短期机器 (LSTM)

GRU 单元 (Gated Recurrent Unit (GRU))

你已经了解了基础的RNN模型的运行机制,在本节视频中你将会学习门控循环单元,它改变了RNN的隐藏层,使其可以更好地捕捉深层连接,并改善了梯度消失问题,让我们看一看。

你已经见过了这个公式, a<t>=g(Wa[a<t−1>,x<t>]+ba)a^{<t>}=g(W_a[a^{<t-1>},x^{<t>}]+b_a)a<t>=g(Wa​[a<t−1>,x<t>]+ba​) ,在RNN的时间 ttt 处,计算激活值。我把这个画个图,把RNN的单元画个图,画一个方框,输入 a<t−1>a^{<t-1>}a<t−1> (上图编号1所示),即上一个时间步的激活值,再输入 x<t>x^{<t>}x<t> (上图编号2所示),再把这两个并起来,然后乘上权重项,在这个线性计算之后(上图编号3所示),如果 ggg 是一个tanh激活函数,再经过tanh计算之后,它会计算出激活值 a<t>a^{<t>}a<t> 。然后激活值 a<t>a^{<t>}a<t> 将会传softmax单元(上图编号4所示),或者其他用于产生输出 y<t>y^{<t>}y<t> 的东西。就这张图而言,这就是RNN隐藏层的单元的可视化呈现。我向展示这张图,因为我们将使用相似的图来讲解门控循环单元。


许多GRU的想法都来分别自于Yu Young Chang, Kagawa,Gaza Hera, Chang Hung ChuJose Banjo的两篇论文。我再引用上个视频中你已经见过的这个句子,“The cat, which already ate……, was full.”,你需要记得猫是单数的,为了确保你已经理解了为什么这里是was而不是were,“The cat was full.”或者是“The cats were full”。当我们从左到右读这个句子,GRU单元将会有个新的变量称为 ccc ,代表细胞(cell),即记忆细胞(下图编号1所示)。记忆细胞的作用是提供了记忆的能力,比如说一只猫是单数还是复数,所以当它看到之后的句子的时候,它仍能够判断句子的主语是单数还是复数。于是在时间 ttt 处,有记忆细胞 c<t>c^{<t>}c<t> ,然后我们看的是,GRU实际上输出了激活值 a<t>a^{<t>}a<t> , c<t>=a<t>c^{<t>}=a^{<t>}c<t>=a<t> (下图编号2所示)。于是我们想要使用不同的符号 ccc 和 aaa 来表示记忆细胞的值和输出的激活值,即使它们是一样的。我现在使用这个标记是因为当我们等会说到LSTMs的时候,这两个会是不同的值,但是现在对于GRU, c<t>c^{<t>}c<t> 的值等于 a<t>a^{<t>}a<t> 的激活值。

所以这些等式表示了GRU单元的计算,在每个时间步,我们将用一个候选值重写记忆细胞,即 c~<t>\tilde{c}^{<t>}c~<t> 的值,所以它就是个候选值,替代了 c<t>c^{<t>}c<t> 的值。然后我们用tanh激活函数来计算, c~<t>=tanh(Wc[c<t−1>,x<t>]+bc)\tilde{c}^{<t>}=tanh(W_c[c^{<t-1>},x^{<t>}]+b_c)c~<t>=tanh(Wc​[c<t−1>,x<t>]+bc​) ,所以 x~<t>\tilde{x}^{<t>}x~<t> 的值就是个替代值,代替表示 c<t>c^{<t>}c<t> 的值(下图编号3所示)。

重点来了,在GRU中真正重要的思想是我们有一个门,我先把这个门叫做 Γu\Gamma _uΓu​ (上图编号4所示),这是个下标为 uuu 的大写希腊字母 Γ\GammaΓ , uuu 代表更新门,这是一个0到1之间的值。为了让你直观思考GRU的工作机制,先思考,这个一直在0到1之间的门值,实际上这个值是把这个式子带入sigmoid函数得到的, Γu=σ(Wu[c<t−1>,x<t>]+bu)\Gamma_u=\sigma(W_u[c^{<t-1>},x^{<t>}]+b_u)Γu​=σ(Wu​[c<t−1>,x<t>]+bu​) 。我们还记得sigmoid函数是上图编号5所示这样的,它的输出值总是在0到1之间,对于大多数可能的输入,sigmoid函数的输出总是非常接近0或者非常接近1。在这样的直觉下,可以想到 Γu\Gamma_uΓu​ 在大多数的情况下非常接近0或1。然后这个字母u表示“update”,我选了字母 Γ\GammaΓ 是因为它看起来像门。还有希腊字母GG是门的首字母,所以G表示门。

然后GRU的关键部分就是上图编号3所示的等式,我们刚才写出来的用 c~\tilde{c}c~ 更新 ccc 的等式。然后门决定是否要真的更新它。于是我们这么看待它,记忆细胞 c<t>c^{<t>}c<t> 将被设定为0或者1,这取决于你考虑的单词在句子中是单数还是复数,因为这里是单数情况,所以我们先假定它被设为了1,或者如果是复数的情况我们就把它设为0。然后GRU单元将会一直记住 c<t>c^{<t>}c<t> 的值,直到上图编号7所示的位置, c<t>c^{<t>}c<t> 的值还是1,这就告诉它,噢,这是单数,所以我们用was。于是门,即 Γu\Gamma_uΓu​ 的作用就是决定什么时候你会更新这个值,特别是当你看到词组the cat,即句子的主语猫,这就是一个好时机去更新这个值。然后当你使用完它的时候,“The cat, which already ate……, was full.”,然后你就知道,我不需要记住它了,我可以忘记它了。

所以我们接下来要给GRU用的式子就是 c<t>=Γu∗c~<t>+(1−Γu)∗c<t−1>c^{<t>}=\Gamma_u*\tilde{c}^{<t>}+(1-\Gamma_u)*c^{<t-1>}c<t>=Γu​∗c~<t>+(1−Γu​)∗c<t−1> (上图编号1所示)。你应该注意到了,如果这个更新值 Γu=1\Gamma_u=1Γu​=1 ,也就是说把这个新值,即 c<t>c^{<t>}c<t> 设为候选值( Γu=1\Gamma_u=1Γu​=1 时简化上式, c<t>=c~<t>c^{<t>}=\tilde{c}^{<t>}c<t>=c~<t> )。将门值设为1(上图编号2所示),然后往前再更新这个值。对于所有在这中间的值,你应该把门的值设为0,即 Γu=0\Gamma_u=0Γu​=0 ,意思就是说不更新它,就用旧的值。因为如果 Γu=0\Gamma_u=0Γu​=0 ,则 c<t>=c<t−1>c^{<t>}=c^{<t-1>}c<t>=c<t−1> , c<t>c^{<t>}c<t> 等于旧的值。甚至你从左到右扫描这个句子,当门值为0的时候(上图编号3所示,中间 Γu=0\Gamma_u=0Γu​=0 一直为0,表示一直不更新),就是说不更新它的时候,不要更新它,就用旧的值,也不要忘记这个值是什么,这样即使你一直处理句子到上图编号4所示, c<t>c^{<t>}c<t> 应该会一直等 c<t−1>c^{<t-1>}c<t−1> ,于是它仍然记得猫是单数的。

让我再画个图来(下图所示)解释一下GRU单元,顺便说一下,当你在看网络上的博客或者教科书或者教程之类的,这些图对于解释GRU和我们稍后会讲的LSTM是相当流行的,我个人感觉式子在图片中比较容易理解,那么即使看不懂图片也没关系,我就画画,万一能帮得上忙就最好了。

GRU单元输入 c<t−1>c^{<t-1>}c<t−1> (下图编号1所示),对于上一个时间步,先假设它正好等于 a<t−1>a^{<t-1>}a<t−1> ,所以把这个作为输入。然后 x<t>x^{<t>}x<t> 也作为输入(下图编号2所示),然后把这两个用合适权重结合在一起,再用tanh计算,算出 c~<t>\tilde{c}^{<t>}c~<t> , c~<t>=tanh(Wc[c<t−1>,x<t>]+bc)\tilde{c}^{<t>}=tanh(W_c[c^{<t-1>},x^{<t>}]+b_c)c~<t>=tanh(Wc​[c<t−1>,x<t>]+bc​) ,即 c<t>c^{<t>}c<t> 的替代值。

再用一个不同的参数集,通过sigmoid激活函数算出 Γu\Gamma_uΓu​ , Γu=σ(Wu[c<t−1>,x<t>]+bu)\Gamma_u=\sigma(W_u[c^{<t-1>},x^{<t>}]+b_u)Γu​=σ(Wu​[c<t−1>,x<t>]+bu​) ,即更新门。最后所有的值通过另一个运算符结合,我并不会写出公式,但是我用紫色阴影标注的这个方框(下图编号5所示,其所代表的运算过程即下图编号13所示的等式),代表了这个式子。所以这就是紫色运算符所表示的是,它输入一个门值(下图编号6所示),新的候选值(下图编号7所示),这再有一个门值(下图编号8所示)和 c<t>c^{<t>}c<t> 的旧值(下图编号9所示),所以它把这个(下图编号1所示)、这个(下图编号3所示)和这个(下图编号4所示)作为输入一起产生记忆细胞的新值 c<t>c^{<t>}c<t> ,所以 c<t>c^{<t>}c<t> 等于 a<t>a^{<t>}a<t> 。如果你想,你也可以也把这个代入softmax或者其他预测 y<t>y^{<t>}y<t> 的东西。

这就是GRU单元或者说是一个简化过的GRU单元,它的优点就是通过门决定,当你从左(上图编号10所示)到右扫描一个句子的时候,这个时机是要更新某个记忆细胞,还是不更新,不更新(上图编号11所示,中间 Γu=0\Gamma_u=0Γu​=0 一直为0,表示一直不更新)直到你到你真的需要使用记忆细胞的时候(上图编号12所示),这可能在句子之前就决定了。因为sigmoid的值,现在因为门很容易取到0值,只要这个值是一个很大的负数,再由于数值上的四舍五入,上面这些门大体上就是0,或者说非常非常非常接近0。所以在这样的情况下,这个更新式子(上图编号13所示的等式)就会变成 c<t>=c<t−1>c^{<t>}=c^{<t-1>}c<t>=c<t−1> ,这非常有利于维持细胞的值。因为 Γu\Gamma_uΓu​ 很接近0,可能是0.000001或者更小,这就不会有梯度消失的问题了。因为 Γu\Gamma_uΓu​ 很接近0,这就是说 c<t>c^{<t>}c<t> 几乎就等于 c<t−1>c^{<t-1>}c<t−1> ,而且 c<t>c^{<t>}c<t> 的值也很好地被维持了,即使经过很多很多的时间步(上图编号14所示)。这就是缓解梯度消失问题的关键,因此允许神经网络运行在非常庞大的依赖词上,比如说catwas单词即使被中间的很多单词分割开。

现在我想说下一些实现的细节,在这个我写下的式子中 c<t>c^{<t>}c<t> 可以是一个向量(上图编号1所示),如果你有100维的隐藏的激活值,那么 c<t>c^{<t>}c<t> 也是100维的, c~<t>\tilde{c}^{<t>}c~<t> 也是相同的维度( c~<t>=tanh(Wc[c<t−1>,x<t>]+bc)\tilde{c}^{<t>}=tanh(W_c[c^{<t-1>},x^{<t>}]+b_c)c~<t>=tanh(Wc​[c<t−1>,x<t>]+bc​) ), Γu\Gamma_uΓu​ 也是相同的维度( Γu=σ(Wu[c<t−1>,x<t>]+bu)\Gamma_u=\sigma(W_u[c^{<t-1>},x^{<t>}]+b_u)Γu​=σ(Wu​[c<t−1>,x<t>]+bu​) ),还有画在框中的其他值。这样的话“ ∗*∗ ”实际上就是元素对应的乘积( c<t>=Γu∗c~<t>+(1−Γu)∗c<t−1>c^{<t>}=\Gamma_u*\tilde{c}^{<t>}+(1-\Gamma_u)*c^{<t-1>}c<t>=Γu​∗c~<t>+(1−Γu​)∗c<t−1> ),所以这里的 Γu\Gamma_uΓu​ :( Γu=σ(Wu[c<t−1>,x<t>]+bu)\Gamma_u=\sigma(W_u[c^{<t-1>},x^{<t>}]+b_u)Γu​=σ(Wu​[c<t−1>,x<t>]+bu​) ),即如果门是一个100维的向量, Γu\Gamma_uΓu​ 也就100维的向量,里面的值几乎都是0或者1,就是说这100维的记忆细胞 c<t>c^{<t>}c<t> ( c<t>=a<t>c^{<t>}=a^{<t>}c<t>=a<t> 上图编号1所示)就是你要更新的比特。

当然在实际应用中 Γu\Gamma_uΓu​ 不会真的等于0或者1,有时候它是0到1的一个中间值(上图编号5所示),但是这对于直观思考是很方便的,就把它当成确切的0,完全确切的0或者就是确切的1。元素对应的乘积做的就是告诉GRU单元哪个记忆细胞的向量维度在每个时间步要做更新,所以你可以选择保存一些比特不变,而去更新其他的比特。比如说你可能需要一个比特来记忆猫是单数还是复数,其他比特来理解你正在谈论食物,因为你在谈论吃饭或者食物,然后你稍后可能就会谈论“The cat was full.”,你可以每个时间点只改变一些比特。

你现在已经理解GRU最重要的思想了,幻灯片中展示的实际上只是简化过的GRU单元,现在来描述一下完整的GRU单元。

对于完整的GRU单元我要做的一个改变就是在我们计算的第一个式子中给记忆细胞的新候选值加上一个新的项,我要添加一个门 Γr\Gamma_rΓr​ (下图编号1所示),你可以认为 rrr 代表相关性(relevance)。这个 Γr\Gamma_rΓr​ 门告诉你计算出的下一个 c<t>c^{<t>}c<t> 的候选值 c~<t>\tilde{c}^{<t>}c~<t> 跟 c<t−1>c^{<t-1>}c<t−1> 有多大的相关性。计算这个门 Γr\Gamma_rΓr​ 需要参数,正如你看到的这个,一个新的参数矩阵 WrW_rWr​ , Γr=σ(Wr[c<t−1>,x<t>]+br)\Gamma_r=\sigma(W_r[c^{<t-1>},x^{<t>}]+b_r)Γr​=σ(Wr​[c<t−1>,x<t>]+br​) 。

正如你所见,有很多方法可以来设计这些类型的神经网络,然后我们为什么有 Γr\Gamma_rΓr​ ?为什么不用上一张幻灯片里的简单的版本?这是因为多年来研究者们试验过很多很多不同可能的方法来设计这些单元,去尝试让神经网络有更深层的连接,去尝试产生更大范围的影响,还有解决梯度消失的问题,GRU就是其中一个研究者们最常使用的版本,也被发现在很多不同的问题上也是非常健壮和实用的。你可以尝试发明新版本的单元,只要你愿意。但是GRU是一个标准版本,也就是最常使用的。你可以想象到研究者们也尝试了很多其他版本,类似这样的但不完全是,比如我这里写的这个。然后另一个常用的版本被称为LSTM,表示长短时记忆网络,这个我们会在下节视频中讲到,但是GRULSTM是在神经网络结构中最常用的两个具体实例。

还有在符号上的一点,我尝试去定义固定的符号让这些概念容易理解,如果你看学术文章的话,你有的时候会看到有些人使用另一种符号 x~,u,r\tilde{x},u,rx~,u,r 和 hhh 表示这些量。但我试着在GRULSTM之间用一种更固定的符号,比如使用更固定的符号 Γ\GammaΓ 来表示门,所以希望这能让这些概念更好理解。

所以这就是GRU,即门控循环单元,这是RNN的其中之一。这个结构可以更好捕捉非常长范围的依赖,让RNN更加有效。然后我简单提一下其他常用的神经网络,比较经典的是这个叫做LSTM,即长短时记忆网络,我们在下节视频中讲解。

(Chung J, Gulcehre C, Cho K H, et al. Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling[J]. Eprint Arxiv, 2014.

Cho K, Merrienboer B V, Bahdanau D, et al. On the Properties of Neural Machine Translation: Encoder-Decoder Approaches[J]. Computer Science, 2014.)

课程板书





←上一篇 ↓↑ 下一篇→
1.8 带有神经网络的梯度消失 回到目录 1.10 长短期机器 (LSTM)

1.9 GRU 单元-深度学习第五课《序列模型》-Stanford吴恩达教授相关推荐

  1. 深度学习教程(6) | 神经网络优化算法(吴恩达·完整版)

    作者:韩信子@ShowMeAI 教程地址:https://www.showmeai.tech/tutorials/35 本文地址:https://www.showmeai.tech/article-d ...

  2. 深度学习教程(10) | 卷积神经网络解读(吴恩达·完整版)

    作者:韩信子@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/35 本文地址:http://www.showmeai.tech/article-det ...

  3. 2.19 总结-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 2.18 Logistic 损失函数的解释 回到目录 3.1 神经网络概览 文章目录 总结 习题 第 11 题 第 12 题 第 13 题 第 14 题 第 15 题 第 1 ...

  4. 机器学习和深度学习到底怎么学?顶尖专家吴恩达告诉你

    机器学习和深度学习到底怎么学? 在外国版知乎上,有位网友问:新手如何学习机器学习?学习完MOOC的课程后有没有能力阅读研究论文或者真正的做出一点研究成果? 这个困惑很多人的问题吴恩达给出了详细的回答, ...

  5. 3.12 总结-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 3.11 随机初始化 回到目录 4.1 深层神经网络 文章目录 总结 习题 第 21 题 第 22 题 第 23 题 第 24 题 第 25 题 第 26 题 第 27 题 ...

  6. 1.1 欢迎-深度学习第一课《神经网络与深度学习》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 无 回到目录 1.2 什么是神经网络 欢迎 第一个视频主要讲了什么是深度学习,深度学习能做些什么事情.以下是吴恩达老师的原话: 深度学习改变了传统互联网业务,例如如网络搜索和 ...

  7. 3.5 向量化实现的解释-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 3.4 多个例子中的向量化 回到目录 3.6 激活函数 向量化实现的解释 (Explanation for Vectorized Implementation) 在上一个视频 ...

  8. 0.0 目录-深度学习第五课《序列模型》-Stanford吴恩达教授

    文章目录 目录 第五课 第四课 第三课 第二课 第一课 目录 第五课 <序列模型> 笔记列表 Week 1 循环序列模型 Week 1 传送门 -> 1.1 为什么选择序列模型 1. ...

  9. 3.8 注意力模型-深度学习第五课《序列模型》-Stanford吴恩达教授

    注意力模型 (Attention Model) 在上个视频中你已经见到了,注意力模型如何让一个神经网络只注意到一部分的输入句子.当它在生成句子的时候,更像人类翻译.让我们把这些想法转化成确切的式子,来 ...

最新文章

  1. makefile 学习(一)
  2. Python3学习笔记(一)简介 、 安装 、 解释器
  3. 什么是 StackBlitz 的 web container
  4. PHP - 使用 Pear 进行安装和卸载包
  5. 基于pt100温度计仿真_基于8pt网格的设计系统
  6. linux终端背景透明度设置,Ubuntu Terminal标签背景颜色设置
  7. 软件工程专插本_2021年专插本部分招生专业(拟),广科/广东理工/华商/培正/松田/工商大!...
  8. mysql redis教程_MySQL redis学习与应用
  9. 二维特征分类的基础_3D 分割分类总结
  10. js验证身份证号是否合法
  11. 计算机什么应用函数计算,函数计算器软件
  12. diskgenius做win10系统迁移
  13. 联想小新air pro 13的 win10和ubuntu17.10双系统安装,彻底解决找不到磁盘问题。
  14. mysql 约束 分类,MySQL约束类型及举例介绍
  15. Linux云计算【第一阶段】第十二章:网络管理、进制及SSH管理与攻防
  16. mysql截断表_mysql – 如何正确截断表?
  17. BT06串口蓝牙模块的配置以及与电脑的配对
  18. 世界上最会写爱情的人,其实是金庸
  19. 适配USB接口奕力 ILITEK Multi-Touch-V5000
  20. windows和android双系统平板,安卓+windows双系统平板的“得与失”

热门文章

  1. Django框架(上传Excel文件并读取)
  2. Abiword 编辑事件设计
  3. WinCE 开始菜单StartMenu_Create()函数代码分析
  4. UA PHYS515A 电磁理论III 静磁学问题2 标量势方法与向量势方法简介
  5. UA MATH571A 回归分析 概念与R code总结
  6. VC++非MFC项目中使用TRACE宏
  7. C语言基本入门 - 1
  8. Win32 树视图控件的基本使用
  9. 图解使用CURL下载和上传文件
  10. 在网页中插入百度地图