文章目录

  • 深度学习框架介绍
    • PaddlePaddle
    • Tensorflow
    • Caffe
    • Theano
    • MXNet
    • Torch
    • PyTorch
    • Keras
  • 激活函数
    • sigmoid
    • Tanh激活函数
    • Relu(修正线性单元)激活函数
    • Leaky Relu激活函数
    • P-Relu(Parametric ReLU)激活
  • 正则化方法
    • l1,l2正则
    • 早停法简介(Early Stopping)
    • dropout
    • 数据集扩增(Data Augmentation)
    • 批标准化(Batch Normalization)
  • 梯度下降算法步骤
  • 为什么引入非线性激励函数?
  • 什麽样的资料集不适合用深度学习?
  • 梯度消失和梯度爆炸
    • 梯度消失:
    • 梯度爆炸:
  • CNN的常用模型
  • 卷积
    • 反卷积
    • 空洞卷积(dilated convolution)
    • 分组卷积(group convolution)

深度学习框架介绍

全世界最为流行的深度学习框架有PaddlePaddle、Tensorflow、Caffe、Theano、MXNet、Torch和PyTorch。

PaddlePaddle

PaddlePaddle(飞桨)是百度研发的开源开放的深度学习平台,是国内最早开源、也是当前唯一一个功能完备的深度学习平台。依托百度业务场景的长期锤炼,PaddlePaddle有最全面的官方支持的工业级应用模型,涵盖自然语言处理、计算机视觉、推荐引擎等多个领域,并开放多个领先的预训练中文模型,以及多个在国际范围内取得竞赛冠军的算法模型。
PaddlePaddle同时支持稠密参数和稀疏参数场景的超大规模深度学习并行训练,支持千亿规模参数、数百个几点的高效并行训练,也是最早提供如此强大的深度学习并行技术的深度学习框架。PaddlePaddle拥有强大的多端部署能力,支持服务器端、移动端等多种异构硬件设备的高速推理,预测性能有显著优势。PaddlePaddle已经实现了API的稳定和向后兼容,具有完善的中英双语使用文档,形成了易学易用、简洁高效的技术特色。
PaddlePaddle 3.0版本升级为全面的深度学习开发套件,除了核心框架,还开放了VisualDL、PARL、AutoDL、EasyDL、AI Studio等一整套的深度学习工具组件和服务平台,更好地满足不同层次的深度学习开发者的开发需求,具备了强大支持工业级应用的能力,已经被中国企业广泛使用,也拥有了活跃的开发者社区生态。

Tensorflow

Google 开源的Tensorflow是一款使用C++语言开发的开源数学计算软件,使用数据流图(Data Flow Graph)的形式进行计算。图中的节点代表数学运算,而图中的线条表示多维数据数组(tensor)之间的交互。Tensorflow灵活的架构可以部署在一个或多个CPU、GPU的台式及服务器中,或者使用单一的API应用在移动设备中。Tensorflow最初是由研究人员和Google Brain 团队针对机器学习和深度神经网络进行研究而开发,开源之后几乎可以在各个领域适用。
Tensorflow是全世界使用人数最多、社区最为庞大的一个框架,因为Google公司出品,所以维护与更新比较频繁,并且有着Python和C++的接口,教程也非常完善,同时很多论文复现的第一个版本都是基于Tensorflow写的,所以是深度学习界框架默认的老大。

Caffe

和Tensorflow名气一样大的是深度学习框架Caffe,由加州大学伯克利的Phd贾扬清开发,全称是Convolutional Architecture for Fast Feature Embedding,是一个清晰而高效的开源深度学习框架,由伯克利视觉中心(Berkeley Vision and Learning Center,BVLC)进行维护。
从它的名字就可以看出其对于卷积网络的支持特别好,同时也是用C++写的,提供的C++接口,也提供了matlab接口和python接口。
Caffe之所以流行,是因为之前很多ImageNet比赛里面使用的网络都是用Caffe写的,所以如果你想使用这些比赛的网络模型就只能使用Caffe,这也就导致了很多人直接转到Caffe这个框架下面。
Caffe的缺点是不够灵活,同时内存占用高,Caffe的升级版本Caffe2已经开源了,修复了一些问题,同时工程水平得到了进一步提高。

Theano

Theano于2008年诞生于蒙特利尔理工学院,其派生出了大量的深度学习Python软件包,最著名的包括Blocks和Keras。Theano的核心是一个数学表达式的编译器,它知道如何获取你的结构,并使之成为一个使用numpy、高效本地库的高效代码,如BLAS和本地代码(C++)在CPU或GPU上尽可能快地运行。它是为深度学习中处理大型神经网络算法所需的计算而专门设计,是这类库的首创之一(发展始于2007年),被认为是深度学习研究和开发的行业标准。
但是开发Theano的研究人员大多去了Google参与Tensorflow的开发,所以,某种程度来讲Tensorflow就像Theano的孩子。

MXNet

MXNet的主要作者是李沐,最早就是几个人抱着纯粹对技术和开发的热情做起来的,如今成了亚马逊的官方框架,有着非常好的分布式支持,而且性能特别好,占用显存低,同时其开发的语言接口不仅仅有Python和C++,还有R,Matlab,Scala,JavaScript,等等,可以说能够满足使用任何语言的人。
但是MXNet的缺点也很明显,教程不够完善,使用的人不多导致社区不大,同时每年很少有比赛和论文是基于MXNet实现的,这就使得MXNet的推广力度和知名度不高。

Torch

Torch是一个有大量机器学习算法支持的科学计算框架,其诞生已有十年之久,但是真正起势得益于Facebook开源了大量Torch的深度学习模块和扩展。Torch的特点在于特别灵活,但是另一个特殊之处是采用了编程语言Lua,在深度学习大部分以Python为编程语言的大环境之下,一个以Lua为编程语言的框架有着更多的劣势,这一项小众的语言增加了学习使用Torch这个框架的成本。

PyTorch

PyTorch的前身便是Torch,其底层和Torch框架一样,但是使用Python重新写了很多内容,不仅更加灵活,支持动态图,而且提供了Python接口。它是由Torch7团队开发,是一个以Python优先的深度学习框架,不仅能够实现强大的GPU加速,同时还支持动态神经网络,这是很多主流深度学习框架比如Tensorflow等都不支持的。
PyTorch既可以看作加入了GPU支持的numpy,同时也可以看成一个拥有自动求导功能的强大的深度神经网络。除了Facebook外,它已经被Twitter、CMU和Salesforce等机构采用。

参考链接:
https://baike.baidu.com/item/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E6%A1%86%E6%9E%B6/22718084?fr=aladdin

Keras

Keras由纯Python编写而成并基于Tensorflow、Theano以及CNTK后端,相当于Tensorflow、Theano、CNTK的上层接口,号称10行代码搭建神经网络,具有操作简单、上手容易、文档资料丰富、环境配置容易等优点,简化了神经网络构建代码编写的难度。目前封装有全连接网络、卷积神经网络、RNN和LSTM等算法。

Keras有两种类型的模型,序贯模型(Sequential)和函数式模型(Model),函数式模型应用更为广泛,序贯模型是函数式模型的一种特殊情况。

  1. 序贯模型(Sequential):单输入单输出,一条路通到底,层与层之间只有相邻关系,没有跨层连接。这种模型编译速度快,操作也比较简单。

  2. 函数式模型(Model):多输入多输出,层与层之间任意连接。这种模型编译速度慢。

参考链接:https://www.jianshu.com/p/a507c3287e75

激活函数

常见的激活函数有:
Sigmoid激活函数
Tanh激活函数
Relu激活函数
Leaky Relu激活函数
P-Relu激活函数
ELU激活函数
R-Relu激活函数
Gelu激活函数
swich激活函数
Selu激活函数

激活函数可以分为两大类 :
饱和激活函数:sigmoid、tanh
非饱和激活函数: ReLU、Leaky Relu、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】

sigmoid

sigmoid函数也叫Logistic函数,用于隐藏层的输出,输出在(0,1)之间,它可以将一个实数映射到(0,1)的范围内,可以用来做二分类。常用于:在特征相差比较复杂或是相差不是特别大的时候效果比较好。该函数将大的负数转换成0,将大的正数转换为1。公式描述如下:

函数曲线:

sigmoid函数的缺点:

梯度消失:Sigmoid 函数趋近 0 和 1 的时候变化率会变得平坦,也就是说,Sigmoid 的梯度趋近于 0。神经网络使用 Sigmoid 激活函数进行反向传播时,输出接近 0 或 1 的神经元其梯度趋近于 0。这些神经元叫作饱和神经元。因此,这些神经元的权重不会更新。此外,与此类神经元相连的神经元的权重也更新得很慢。该问题叫作梯度消失。因此,想象一下,如果一个大型神经网络包含 Sigmoid 神经元,而其中很多个都处于饱和状态,那么该网络无法执行反向传播。
不以零为中心:Sigmoid 输出不以零为中心的。
计算成本高昂:exp() 函数与其他非线性激活函数相比,计算成本高昂。

Tanh激活函数

Tanh 激活函数又叫作双曲正切激活函数(hyperbolic tangent activation function)。




优点:它解决了Sigmoid函数的不是zero-centered输出问题。
缺点:梯度消失(gradient vanishing)的问题和幂运算的问题仍然存在。

为了解决梯度消失问题,我们来讨论另一个非线性激活函数——修正线性单元(rectified linear unit,ReLU),该函数明显优于前面两个函数,是现在使用最广泛的函数。

Relu(修正线性单元)激活函数



Relu激活函数优点:

该激活函数使网络更快速地收敛。它不会饱和,即它可以对抗梯度消失问题,至少在正区域(x> 0 时)可以这样,因此神经元至少在一半区域中不会把所有零进行反向传播。由于使用了简单的阈值化(thresholding),ReLU 计算效率很高。

Relu激活函数缺点:

不以零为中心:和 Sigmoid 激活函数类似,ReLU 函数的输出不以零为中心。
前向传导(forward pass)过程中,如果 x < 0,则神经元保持非激活状态,且在后向传导(backward pass)中「杀死」梯度。这样权重无法得到更新,网络无法学习。当 x = 0 时,该点的梯度未定义,但是这个问题在实现中得到了解决,通过采用左侧或右侧的梯度的方式。

尽管存在这两个问题,ReLU目前仍是最常用的activation function,在搭建人工神经网络的时候推荐优先尝试!

为了解决 ReLU 激活函数中的梯度消失问题,当 x < 0 时,我们使用 Leaky ReLU——该函数试图修复 dead ReLU 问题。下面我们就来详细了解 Leaky ReLU。

Leaky Relu激活函数



Leaky ReLU 的概念是:当 x < 0 时,它得到 0.01 的正梯度

优点:

该函数一定程度上缓解了 dead ReLU 问题。

缺点:

使用该函数的结果并不连贯。尽管它具备 ReLU 激活函数的所有特征,如计算高效、快速收敛、在正区域内不会饱和。

Leaky ReLU 可以得到更多扩展。不让 x 乘常数项,而是让 x 乘超参数,这看起来比 Leaky ReLU 效果要好。该扩展就是 Parametric ReLU

P-Relu(Parametric ReLU)激活



其中a是超参数。这里引入了一个随机的超参数a,它可以被学习,因为你可以对它进行反向传播。这使神经元能够选择负区域最好的梯度,有了这种能力,它们可以变成 ReLU 或 Leaky ReLU。
参考:https://zhuanlan.zhihu.com/p/192497127?utm_source=wechat_timeline

正则化方法

当我们训练深度学习神经网络的时候通常希望能获得最好的泛化性能(generalization performance,即可以很好地拟合数据)。但是所有的标准深度学习神经网络结构如全连接多层感知机都很容易过拟合:当网络在训练集上表现越来越好,错误率越来越低的时候,实际上在某一刻,它在测试集的表现已经开始变差。
模型的泛化能力通常使用模型在验证数据集(validation set)上的表现来评估。即当模型在训练集上的误差降低的时候,其在验证集上的误差表现不会变差。反之,当模型在训练集上表现很好,在验证集上表现很差的时候,我们认为模型出现了过拟合(overfitting)的情况。可以通过以下正则化方法来改善过拟合:

l1,l2正则

通过在损失函数中添加一项对权重的约束来实现正则化。(降低模型复杂度,让W向量中项的个数最小化)
0范数,向量中非零元素的个数。
1范数,为绝对值之和。
2范数,就是通常意义上的模
1范数和0范数可以实现稀疏,1因具有比L0更好的优化求解特性而被广泛应用。L2范数是指向量各元素的平方和然后求平方根。我们让L2范数的正则项||W||2最小,可以使得W的每个元素都很小,都接近于0,但与L1范数不同,它不会让它等于0,而是接近于0,这里是有很大的区别的哦;所以大家比起1范数,更钟爱2范数。

参考:https://www.zhihu.com/question/20924039

早停法简介(Early Stopping)

过拟合:模型在训练集上表现很好,在验证集上表现很差的时候:

早停法是一种被广泛使用的方法,在很多案例上都比正则化的方法要好。其基本含义是在训练中计算模型在验证集上的表现,当模型在验证集上的表现开始下降的时候,停止训练,这样就能避免继续训练导致过拟合的问题。其主要步骤如下:

  1. 将原始的训练数据集划分成训练集和验证集;
  2. 只在训练集上进行训练,并每个一个周期计算模型在验证集上的误差,例如,每15次epoch(mini batch训练中的一个周期);
  3. 当模型在验证集上的误差比上一次训练结果差的时候停止训练;
  4. 使用上一次迭代结果中的参数作为模型的最终参数。

参考:https://www.datalearner.com/blog/1051537860479157

dropout

而在神经网络中,有一种方法是通过修改神经网络本身结构来实现的,其名为Dropout。该方法是在对网络进行训练时用一种技巧(trick),对于如下所示的三层人工神经网络:

对于上图所示的网络,在训练开始时,随机得删除一些(可以设定为一半,也可以为1/3,1/4等)隐藏层神经元,即认为这些神经元不存在,同时保持输入层与输出层神经元的个数不变,这样便得到如下的ANN:

然后按照BP学习算法对ANN中的参数进行学习更新(虚线连接的单元不更新,因为认为这些神经元被临时删除了)。这样一次迭代更新便完成了。下一次迭代中,同样随机删除一些神经元,与上次不一样,做随机选择。这样一直进行随机删除神经元,直至训练结束。
参考:https://blog.csdn.net/u014518506/article/details/79648175?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.control&dist_request_id=c610408a-c13d-4de9-9821-882a24898be3&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.control

数据集扩增(Data Augmentation)

物体在图像中的位置、姿态、尺度,整体图片敏感度等都不会影响分类结果,所以我们就可以通过图像平移、翻转、缩放、切割等手段将数据成倍扩充。或者在语音识别(speech recognition)中,加入噪音也被看做是一种数据扩增方式。

批标准化(Batch Normalization)

Batch Normalization, 批标准化, 和普通的数据标准化类似, 是将分散的数据统一的一种做法, 也是优化神经网络的一种方法,具有统一规格的数据, 能让机器学习更容易学习到数据之中的规律.

Batch normalization 的 batch 是批数据, 把数据分成小批小批进行随机梯度下降. 而且在每批数据进行前向传递的时候, 对每一层都进行归一化的处理。

对神经网络中的数据进行归一化就是,使数据均值为0,方差为1,在数据变化范围很大的时候,可以对数据进行缩放,降低模型复杂度,加快神经网络的收敛速度,防止过拟合。

梯度下降算法步骤

1 用随机值初始化权重和偏差
2 把输入传入网络,得到输出值
3 计算预测值和真实值之间的误差
4 对每一个产生误差的神经元,调整相应的(权重)值以减小误差
5 重复迭代,直至得到网络权重的最佳值

为什么引入非线性激励函数?

第一,对于神经网络来说,网络的每一层相当于f(wx+b)=f(w’x),对于线性函数,其实相当于f(x)=x,那么在线性激活函数下,每一层相当于用一个矩阵去乘以x,那么多层就是反复的用矩阵去乘以输入。根据矩阵的乘法法则,多个矩阵相乘得到一个大矩阵。所以线性激励函数下,多层网络与一层网络相当。比如,两层的网络f(W1*f(W2x))=W1W2x=Wx。

如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出都是上层输入的线性函数,很容易验证,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Perceptron)了。

第二,非线性变换是深度学习有效的原因之一。原因在于非线性相当于对空间进行变换,变换完成后相当于对问题空间进行简化,原来线性不可解的问题现在变得可以解了。

下图可以很形象的解释这个问题,左图用一根线是无法划分的。经过一系列变换后,就变成线性可解的问题了。

什麽样的资料集不适合用深度学习?

1)数据集太小,数据样本不足时,深度学习相对其它机器学习算法,没有明显优势。

2)数据集没有局部相关特性,目前深度学习表现比较好的领域主要是图像/语音/自然语言处理等领域,这些领域的一个共性是局部相关性。图像中像素组成物体,语音信号中音位组合成单词,文本数据中单词组合成句子,这些特征元素的组合一旦被打乱,表示的含义同时也被改变。对于没有这样的局部2.如何解决梯度消失和梯度膨胀?

梯度消失和梯度爆炸

梯度消失:

根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0

可以采用ReLU激活函数有效的解决梯度消失的情况,也可以用Batch Normalization解决这个问题。

梯度爆炸:

根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大

可以通过激活函数来解决,或用Batch Normalization解决这个问题。有相关性的数据集,不适于使用深度学习算法进行处理。

CNN的常用模型


参考:https://www.cnblogs.com/think90/p/11461424.html

卷积

反卷积

上采样(Upsample)在应用在计算机视觉的深度学习领域,由于输入图像通过卷积神经网络(CNN)提取特征后,输出的尺寸往往会变小,而有时我们需要将图像恢复到原来的尺寸以便进行进一步的计算(e.g.:图像的语义分割),这个采用扩大图像尺寸,实现图像由小分辨率到大分辨率的映射的操作,叫做上采样(Upsample)。
反卷积(Transposed Convolution)上采样有3种常见的方法:双线性插值(bilinear),反卷积(Transposed Convolution),反池化(Unpooling),我们这里只讨论反卷积。
这里指的反卷积,也叫转置卷积,它并不是正向卷积的完全逆过程,用一句话来解释:反卷积是一种特殊的正向卷积,先按照一定的比例通过补0来扩大输入图像的尺寸,接着旋转卷积核,再进行正向卷积。
参考链接:https://www.zhihu.com/question/48279880/answer/525347615

空洞卷积(dilated convolution)

空洞卷积:在卷积核中间填充0,有两种实现方式,第一,卷积核填充0,第二,输入等间隔采样。
在卷积核中引入空洞,可以扩大感受野。

参考:https://zhuanlan.zhihu.com/p/50369448

分组卷积(group convolution)

Group Convolution分组卷积,最早见于AlexNet——2012年Imagenet的冠军方法,Group Convolution被用来切分网络,使其在2个GPU上并行运行,AlexNet网络结构如下:


Group Convolution顾名思义,则是对输入feature map进行分组,对卷积核也分组,然后每组分别卷积,最后再把计算结果合并
参考:https://www.cnblogs.com/shine-lee/p/10243114.html

深度学习面试复习总结整理相关推荐

  1. 常见的12个深度学习面试问题(提高篇)

    序言 整理了一篇来自公众号AI公园的文章,原文链接:常见的12个深度学习面试问题,通过对文章知识点整理来巩固所学的知识,也为了以后更好的复习. 正文 1. 介绍Batch Normalization的 ...

  2. 机器学习、深度学习面试知识点汇总

    作者丨Oldpan 来源丨oldpan博客 编辑丨极市平台 导读 本文总结了一些秋招面试中会遇到的问题和一些重要的知识点,适合面试前突击和巩固基础知识. 前言 最近这段时间正临秋招,这篇文章是老潘在那 ...

  3. 爆火的深度学习面试书现可白嫖!GitHub上线2周1.5K Star,之前售价146元

    金磊 发自 凹非寺 量子位 报道 | 公众号 QbitAI 面试宝典千千万,但这一份,应当是深度学习领域里不容错过的那一个了. 这不,才在arXiv"上架"12天,GitHub就狂 ...

  4. 21个热门的深度学习面试问答的综合指南

    本文列出了一系列热门的深度学习面试的问题,每一个问题都有相应的答案.认真阅读,或许你会对深度学习面试的知识有个全面的了解. 介绍 你打算参加深度学习面试吗?你是否已经迈出了第一步,申请了一个深度学习的 ...

  5. 【深度学习面试八股文】-- 1-5

    最近会更新一个深度学习面试中常见问题,及相应的答案,希望对找工作的朋友有所帮助,总结不易,欢迎持续关注.公众号:羽峰码字,欢迎来撩. 目录 1.如何处理样本不均衡问题 2.数据增强方法 3.过拟合的解 ...

  6. 常见的12个深度学习面试问题

    深度学习面试 Author:JP Tech Translator:ronghuaiyang From:AI公园 导读 这12个问题是当前面试中最热门的问题,既是非常基础的问题,也能看出面试者的水平,具 ...

  7. 年轻人的第一本深度学习面试书

    本文由发布于专栏 白小鱼 同志们,一年一度的暑假又到了,暑假实习.秋招都在向你招手,你又不可避免地卷入各种各样的面试.面试深度学习算法工程师的同学,在参加面试的过程中,你是否经常被面试官的问题难到,苦 ...

  8. 深度盘点:机器学习、深度学习面试知识点3W字汇总

    作者丨Oldpan 来源丨oldpan博客,编辑丨机器学习社区 欢迎关注,专注学术论文.机器学习.人工智能.Python技巧 前言 最近这段时间正临秋招,这篇文章是我在那会找工作过程中整理的一些重要知 ...

  9. 深度学习面试必备的25个问题

    作者 | Tomer Amit 译者 | 弯月,编辑 | 屠敏 出品 | CSDN(ID:CSDNnews) 在本文中,我将分享有关深度学习的25个问题,希望能够帮助你为面试做好准备. 1.为什么必须 ...

最新文章

  1. centos下docker1.7 上传文件到容器报错 Error: Path not specified
  2. 基于长度特征的三文鱼好sea bass的区分,sesbass 比三文鱼长
  3. 使用Go开发gRPC
  4. 设计模式示例_复合设计模式示例
  5. IOS开发之----常用加密方法
  6. (需求实战_进阶_05)SSM集成RabbitMQ 通配符模式 关键代码讲解、开发、测试
  7. python wxpython radiobutton 能不能默认不选择_Python啥都行_Robot自动化测试
  8. [android]-xml解析示便-SAX
  9. Linux中shell运行方式,linux脚本中父shell与子shell 执行的几种方式
  10. 程序员如何用六年时间打造价值10亿的帝国?
  11. 开发提效小技巧分享(二)
  12. 「leetcode」486. 预测赢家:【三种递归+动态规划】由浅入深,步步到位
  13. Instant Run 的操作影响到了代码,导致Android App启动闪退的问题
  14. 打造舒适搬砖环境,这些是我最想推介的桌面好物
  15. python公式计算_Python Numpy计算各类距离的方法
  16. java程序设计特点_Java编程语言的特点
  17. IP网络主动测评系统
  18. Kotlin入门第四节
  19. 中小网站在域名、服务器等选择上的一点总结
  20. javaScript 原型 和 原型链

热门文章

  1. StarCTF oh-my-bet
  2. 汇川AM系列掉电数据保持及变量
  3. BUUCTF:蜘蛛侠呀
  4. 高等数学学习笔记——第七十五讲——二重积分和三重积分的概念和性质
  5. SAP-PM设备模块-PM主数据之设备BOM
  6. C/C++内存管理与函数模板
  7. 简要介绍 | 计算机视觉中的开放词汇:挑战与未来
  8. android盒子模拟器,盒子模拟器
  9. 案例:个税计算器(2019)
  10. 调用接口登录禅道_请教调用API新增禅道用户