论文下载地址:https://arxiv.org/pdf/2004.13820v1.pdf

摘要

深度神经网络(DNN)在各种任务(例如图像分类,语音识别和自然语言处理)中均取得了显著成功。但是,研究表明,DNN模型容易受到对抗性示例的攻击,这些示例会通过在正常输入中添加无法察觉的扰动而导致错误的预测。关于图像领域对抗性例子的研究已经得到了很好的研究,但是在文本上,研究还不够,更不用说对该领域进行全面的调查了。在本文中,我们旨在对文本中的对抗攻击和相应的缓解策略提供全面的了解。具体来说,我们首先从不同的自然语言处理(NLP)任务的角度对文本进行对抗性攻击和防御的分类,然后介绍如何通过测试和验证来构建强大的DNN模型。最后,我们在文中讨论了对抗性攻击和防御的现有挑战,并提出了这一新兴领域的未来研究方向。

引言

如今,DNN已显示出解决各种领域中大量重大问题的能力,例如计算机视觉[1],[2],音频[3],[4]和自然语言处理[5],[6]。由于它们的巨大成功,基于DNN的系统被广泛部署在物理世界中,包括许多安全关键领域[7] – [11]。然而,塞格迪等。 [12]首先发现了一个有趣的事实,即通过添加不易察觉的扰动来制作输入可以轻易使DNN蒙蔽。这些经过修改的输入称为对抗示例,它们可能给基于DNN的系统带来潜在的安全威胁。因此,近年来,它们已成为人工智能和安全领域的热点问题,相关研究也急剧增加。最近,在许多领域都发现了对抗性示例,从图像到其他领域都有所不同。研究表明,信号识别系统[13],对象识别系统[14],音频识别或控制系统[15]-[17],恶意软件检测系统[18],[19]和情感分析系统[20]都是容易受到对抗性例子的攻击。图1是对ParallelDots1情绪分析API的对抗攻击,我们使用的对抗示例来自[21]的工作。在图1中,我们可以看到,当原始样本中的“ I”被“ Excellent”代替时,预测结果从负变为正。

在NLP中,DNN被广泛用于许多基本任务,例如文本分类,机器翻译和问题解答,但是在面对对抗性示例时,这些基于DNN的系统的性能也显着下降。 Papernot等。 [21]首先,攻击者可以通过在文本中添加噪音来生成对抗性示例,这可能会使分类器分类错误。然后,在文本中的对抗示例攻击和防御之间开始起起手臂,从而导致该领域的许多研究。这些研究主要集中于产生有效的对抗实例,并介绍相应的防御策略。其中一些[22],[23]提出了黑匣子攻击,而主要对象是文本分类系统[20],[22] – [26]。另外,阅读理解[27],自然语言推理(NLI)[28]和机器翻译系统[29],[30]也容易受到对抗性例子的攻击。表1总结了不同NLP任务中有关对抗性攻击的现有工作。

文本中的对抗性示例也给用户带来了一些潜在的安全隐患,因为已部署了许多基于DNN的文本相关系统来提供服务(如图1所示)。在现实世界中,用户在购物,饮食或观看电影时,都倾向于通过阅读产品或服务的评论来获取建议。因此,一些应用根据历史评论和情感分析技术为用户提供推荐服务[38]。带有推荐分数的相应项目将同时给出。分数越高,用户接受它的可能性就越大。不幸的是,攻击者可能会根据用户的真实评论来生成对抗性示例,以涂抹竞争对手或对次品提供恶意建议。特定产品的推荐分数可以通过有意制作的评论手动控制。此外,用于检测恶意信息的系统[39]-[41]也受到对抗示例的威胁。因此,研究人员已经非常关注对抗性例子引起的安全性问题[42],[43]。许多作品研究了对抗性攻击和防御,旨在探索什么是对抗性示例[12],[44]-[46],它们为什么存在,它们如何感染DNN模型的行为以及如何解决此安全性问题。我们计算了近年来的对抗性示例论文的数量,如图2所示。最后一个统计时间是2019年11月底。在图2中,橙色的代表对抗文本的研究,蓝色的代表对抗文本的研究。 Carlini [47]收集的有关图像,音频,文本等对抗性示例的论文。我们可以看到,在过去三年中,相关出版物的数量急剧增加,这引起了研究人员的极大关注。但是,对文本的研究很少作为前沿领域,因此需要对此进行更多的关注。

由于对抗性例子引起的安全和隐私问题,回顾它们的快速发展具有重要意义。在图像域[45],[48]-[52]中有几项调查,但在文本[53]-[55]中却很少。 [53],[54]中的作品部分与对抗文本有关。其余[55]比较图像域中的攻击方法,并描述了如何在文本中实施对抗性攻击。这些调查主要集中于对抗性攻击和防御,但尚无系统的评估来构建可靠的DNN模型。在本文中,我们解释了对抗性示例的存在,并分析了如何在各种NLP任务中进行攻击和防御,旨在系统地理解对抗性示例,以在文本中构建健壮的DNN模型。本文的主要贡献概述如下。

•本文对文本中的对抗性示例进行了全面的调查,这些示例在安全性,人工智能,自然语言处理和软件工程等不同领域发布。

•通过考虑特定的NLP任务,在文本中提出对抗性攻击和防御,并引入各种度量指标来衡量对抗性文本。我们还将讨论如何通过测试和验证来提高DNN的鲁棒性,以在文本中构建鲁棒的DNN模型。

•我们注意到研究工作的分配存在明显的不平衡:在我们收集的47篇论文中,其中三篇涉及测试和验证,只有一篇专门针对防御,其余涉及攻击。另外,在对抗性例子中,只有一篇论文研究速度的因素。

•我们通过比较一些具有代表性的作品和相同的数据集来回答一个基本问题,即哪种进攻或防御方法更好。我们提出了一些对抗性例子的一般观察,并讨论了现有的挑战。最后,我们还提出了一些可行的方向,并提出了促进和促进进一步研究的建议。

前提

在本节中,我们将简要介绍DNN,然后进行公式描述,广告示例解释,一般分类,评估以及文本中的对应数据集。

1、深度神经网络

深度神经网络是一种网络拓扑,与一般的神经网络相比,它可以学习更复杂,更抽象的高级特征[56]。 DNN模型通常由一个输入层,几个隐藏层和一个输出层组成。 它们每个都由多个单元组成。 此外,通常通过将输出映射到概率分布,将softmax图层添加到DNN模型中进行分类。 图3显示了一些DNN模型,包括递归神经网络(RNN),长期短期记忆(LSTM)[57]和门控递归单元(GRU)[58],它们可以在文本和图像域中使用。

但是与在图像域中使用这些模型不同,向它们添加了一个额外的嵌入层来处理文本中的数据,因为在学习之前需要将原始文本转换为矢量。 这个过程称为词嵌入,旨在表示实值连续向量空间中词的理想语义空间[59]。 常用的嵌入方法是one-hot,n-gram [60]和word2vec [61]。 One-hot编码是其维数等于整个词汇表的大小一种技术,因此通常会产生很大且非常稀疏的向量[62]。 n-gram模型是一种概率语言模型,用于以前一个单词的形式预测下一个单词,该模型缺乏长期依赖性。 从原始文本中学习,Word2vec在低维语义空间中提供了最佳表示形式[63]。 它包括两个体系结构:连续词袋(CBOW)和skip-gram。 Word2vec是目前最常用的词嵌入方法。

公式说明

为了更直观地理解这些定义,我们给出了有关DNN的一些公式描述,对抗性示例以及模型的鲁棒性。

DNN。 DNN可以表示为函数F:X→Y,它从输入集X映射到Y。Y是k类的标签集,如{1,2,...,k}。 对于样本x∈X,它由F正确地分类为真标签y,即F(x)= y。

对抗性例子。 攻击者旨在在x中添加小的扰动ε来生成对抗性示例x',从而使F(x')= y'(y̸= y'),其中∥ε∥<δ。 δ是限制摄动大小的阈值。 同时,好的X'不仅应该愚弄F,而且对于人类来说应该是不可感知的,它可以根据对抗目标[64]来适应变化,并可以抵抗现有防御。 因此,附加了约束条件(例如,语义相似性)以使x’与x无法区分。

鲁棒性。 健壮的DNN不应由于其输入的微小变化而改变其输出[65]。 因此,在稳健模型中,对抗性示例x'的预测应为y,而不是y',即F(x')= y。 增强模型鲁棒性的防御方法是增加ε的容差,以使DNN正常运行。

对抗性示例

由于对抗性示例的问题非常严重,因此出现了一个问题:为什么DNN中存在对抗性示例?自从发现对抗性例子以来,研究人员一直在探索它们的存在。如今,关于它们的存在有两个要点。一种是由于DNN的线性结构,这很可能导致错误的预测。 Goodfellow等。 [44]声称对抗性例子的主要原因是DNN的线性特征。尽管非线性激活函数是DNN的主要部分,但从某种意义上讲它们是线性的。图4显示了一些主要的激活功能,包括tanh,Sigmoid,relu [66]和ELU2 [67]。在图4中,我们可以看到这些函数非常分段线性。此外,还存在其他线性结构,例如每层的连接和卷积计算。线性结构的缺点是,即使没有训练数据,分类也可以随着远离决策边界而进行分类。但是,在这些地方通常会做出错误的预测,因此可能存在对抗性示例。另一种解释是,对抗性示例是根据数据的非鲁棒性特征生成的。伊利亚斯等。 [68]宣称,“对抗性漏洞是我们的模型对数据中的特征普遍敏感的直接结果。”通过一系列实验,他们得出的结论是,对抗性示例不是bugs,而是特征。如果预测特征存在于标准分类任务中,则可以分为鲁棒性和非鲁棒性。它们都用于预测预定义的真相标签。但是,可以在非鲁棒性特征上添加小扰动,以使最终预测不正确。因此,对抗性示例无论出现在图像,文本还是其他领域。

生成分类对抗示例

图5是对抗性攻击和防御的一般分类。 分类信息是从相关文献中总结出来的,包括图像,文本,视频和音频。

1、对抗攻击的分类

对抗攻击可以在白盒和黑盒场景中进行。在白盒方案中,对手可以完全访问目标模型,并且他们可以通过使用模型的架构,参数和权重来获得出色的对抗示例,这些模型的性能,效果和权重通常比黑盒更好攻击。在黑盒方案中,对手对目标模型不了解或几乎不了解(例如,logits3)。他们通常训练替代模型,并利用对抗性示例的可传递性[44] [69]进行黑匣子攻击。此外,如果可以查询目标模型,还有另一种进行黑盒攻击的方法。对于基于查询的方法,对手通过在每次查询后观察输出来修改输入,然后重复该过程直到获得对手示例。

根据对手的目的,对手的攻击可分为针对性攻击和非针对性攻击。在有针对性的攻击中,将生成的对抗示例x'故意分类为类别t,这是对手的目标。该过程主要依赖于增加类t的置信度得分(即logit或softmax层的输出)。在非针对性攻击中,对手仅旨在欺骗模型。结果y’可以是y以外的任何类别。与针对性攻击相反,非针对性攻击通过降低正确类别y的置信度得分来进行操作。

在文本中,还有另一种按对抗性文本对攻击进行分类的方法,如图6所示。根据修改后的对象,可以将它们分为字符级,单词级和句子级攻击。字符级攻击针对字符,包括字母,特殊符号和数字。与字符级攻击不同,单词级攻击通过同义词,错字,特定类型的关键字等对单词进行修改。目前,句子级攻击的方法是将精心制作的句子添加到输入中,例如[26]的作品, [27]。

防御对抗攻击的分类法

受[70]的启发,防御的目标是保护基于DNN的系统免受对抗性攻击,并评估在最坏情况下这些系统的鲁棒性。 对于前者,防御者试图检测对抗性示例并将其从DNN模型中排除。 后者是防御者通过各种方式训练了模型,以增强其健壮性以使攻击失败。 因此,防御可以分为检测和模型增强。 检测的一般方法是检测输入。 另一个是通过增强DNN在训练过程中的健壮性来实现的,包括对抗训练,更改模型的损失函数,测试和验证方法。 在文本中,拼写检查对抗训练是防御对抗攻击的两种主要方法。 拼写检查是NLP中的一种特殊检测方法,另一种是在图像,文本,音频等中使用的通用方法。

对抗性示例的有效性评估

对抗示例的性能评估是一个开放式问题,它反映了欺骗DNN的能力。 研究人员使用了不同的标准来评估其性能。 据我们所知,研究人员通常根据准确率或错误率评估对目标模型的攻击。

•准确率:是指输入上正确识别的比率。 准确率越低,对抗示例越有效。

•错误率:这是输入上错误识别的比率,与准确率相反。 错误率越高,对抗示例越有效。

一些研究人员更喜欢利用攻击前后的准确性之间的差异,因为它可以更直观地显示效果。 这些评估方法也用于防御。

不可感知度

在对抗性攻击中,基本的假设是,人眼看不见对抗示例。 L0 [71]-[73],L2 [73]-[76]和L∞[12],[44],[ 76] – [79]在图像域中。 不幸的是,这些度量标准不能直接应用于文本。 在本节中,我们首先在图像域中提供一些指标,然后在文本中给出一些指标。采取了许多度量标准来测量对抗性示例与原始示例之间的感知相似度,例如图像领域采用L0、L2、L∞ 。不幸的是,这些度量标准不能直接应用于文本。 在本节中,我们首先在图像域中提供一些指标,然后在文本中给出一些指标。

图像领域指标

在图像领域,最近的研究采用Lp距离来量化对抗示例与原始示例之间的不可感知性和相似性。 Lp距离的广义项如公式(1)所示:

△c表示扰动。 c'i和ci分别是n维向量c⃗'和⃗c中的第i个因子。 公式(1)表示一系列距离,其中p可以为L0、L2,L∞等。 特别地,当p等于零时,∥△c||0=求和bool(ci̸= 0)。 bool是具有0或1值的逻辑函数。 在图像域中,L0,L2和L∞是衡量对抗性示例的三个最常用准则。

•L0距离可评估修改前后的像素变化数量。 看起来像是编辑距离,但它不能直接在文本中使用。 文本中单词更改的结果是多种多样的。 即使它们的L0距离相等,它们中的一些与原始单词相似,而另一些则可能相反。

•L2表示欧几里得距离。 原始的欧几里得距离是在欧几里得空间中从一个点到另一个点的直线。 作为图像,文本或其他图像到此空间的映射,它充当度量两个对象(表示为矢量)之间相似度的度量。

  • L∞距离衡量最大变化,L∞如公式(2)所示

max是选择最大因子的函数。 尽管L∞距离被认为是图像中的最佳距离度量,但在文本中可能会失败。 更改的单词可能在预训练词典中不存在。 因此,它们被认为是未知单词,并且它们的单词向量也是未知的。 结果,L∞距离难以计算。

还有其他度量(例如,结构相似度[80],摄动灵敏度[81])是图像的典型方法。 由于数据类型不同,它们也不能直接在文本中使用,这导致对抗示例的生成方法不同。 因此,文本中需要可用的度量标准来保证对抗性示例的质量。

文本领域指标

除了不可感知性之外,文本中的一个好的对抗性示例还必须传达与原始示例相同的语义,因此需要度量标准来确保这种情况。 在下面的部分中,我们描述在对抗文本的相关研究中使用的一些度量。

1、欧氏距离。 对于两个给定的单词向量m⃗=(m1,m2,...,mk)和⃗n=(n1,n2,...,nk),它们的欧式距离如公式(3)所示:

其中mi和ni分别是k维向量中的第i个因子。 距离越短,它们越相似。 但是欧几里得距离在图像域[73]-[76]中更常用,其广义术语称为L2范数或L2距离。

2、余弦距离。 余弦距离也是语义相似度的一种计算方法。 它计算两个向量之间的角度的余弦值。 与欧几里得距离相比,余弦距离更加关注两个向量方向之间的差异。 他们的方向越一致,它们就越相似。 对于两个给定的单词向量m⃗和⃗n,它们的余弦相似性如公式(4)所示:

3、杰卡德相似系数。 对于两个给定的集合A和B,其Jaccard相似系数J(A,B)如公式(5)所示:

J (A, B) = |A ∩ B|/|A ∪ B|

其中0≤ J(A,B)≤1。这意味着J(A,B)的值越接近1,则它们越相似。 在文本中,交集A∩B表示样本中的相似单词,而并集A∪B则是所有没有重复的单词。

4、移字距离(WMD)。 WMD [82]是地球移动者距离(EMD)[83]的变体。 它用于测量两个文本文档之间的差异,具体取决于从一个文档的嵌入单词到另一个文档的行进距离。 WMD的值越低,这两个文本越相似。

5、编辑距离。编辑距离是一种通过将字符串转向另一个来测量最小修改的方法。值越低,两个字符串越相似。它可以应用于计算生物学和自然语言处理。 Levenshtein距离[84]在工作[22]中也被称为带有插入,删除,替换操作的编辑距离。

这些指标适用于不同的对象。其中,欧几里得距离,余弦距离和WMD用于矢量。将对抗性示例和文本中的原始示例转换为向量,然后将这三种方法应用于计算向量之间的距离。相反,Jaccard相似系数和编辑距离直接用于文本输入,而无需将原始文本转换为矢量。

特别是,Michel等。 [85]提出了一个自然的标准,用于对抗性文本的seq2seq模型。这项工作的重点是评估对抗性示例与原始示例之间的语义对等。实验结果表明,严格的约束条件在保持意义上是有用的,但是是否比上述指标更好还是需要进一步确认的。

文本数据集

为了使需要的人更容易访问数据,我们在NLP任务中收集了一些常用的公共数据集,并对其进行了简要介绍。表2是它们在不同的NLP任务中的应用,表3是研究工作中使用的其他一些数据集。

1、AG’s News :AG的News是一整套新闻,包含超过一百万篇文章,它是由学术新闻搜索引擎Come-ToMyHead从2,000多个新闻来源收集的。可以下载提供的DB版本和XML版本以用于任何非商业用途。

2、DBPedia Ontology :DBPedia是一个数据集,具有根据各种Wiki媒体项目中创建的信息构造的内容。它具有68个类,具有2,795个不同的属性。现在,该数据集中包含了超过400万个实例。

3、Amazon Review  :亚马逊评论数据集有1995年6月至2013年3月之间的近3500万条评论,包括产品和用户信息,评分以及纯文本评论。它被超过600万用户收集到超过200万种产品中,并分为33类,大小从KB到GB。

4、Yahoo! Answers :语料库包含400万个问题及其答案,可以很容易地在问答系统中使用。除此之外,还使用一些主要类来构建主题分类数据集。

5、Yelp Reviews :Yelp提供了所提供的数据,以使研究人员或学生能够开发学术项目。它包含470万条用户评论,其中包含JSON文件和SQL文件的类型。

6、Movie Review (MR) MR是一个标记的数据集,涉及情感极性,主观评价以及带有主观状态或极性的句子。可能因为该数据集是通过人工标记的,所以该数据集的大小比其他数据集要小,最大为几十MB。

7、MPQA Opinion Corpus 多角度问题解答(MPQA)意见语料库是从各种各样的新闻来源中收集的,并注有意见或其他私人国家。 MITRE公司为人们提供了三种不同的版本。版本越高,内容越丰富。

8、Internet Movie Database (IMDB) IMDB是从Internet爬网的,包括50,000条正面和负面评论。评论的平均篇幅接近200个字。它通常用于情感分类,包括比其他类似数据集更多的数据。 IMDB还包含其他未标记的数据,原始文本和已处理的数据。

9、SNLI Corpus 斯坦福自然语言推理(SNLI)语料库是具有手动标记数据的集合,主要用于自然语言推理(NLI)任务。在固定的背景下,人类撰写了近五十万个句子对。关于这个语料的更多细节可以在[93]的著作中看到。

文本分类的对抗性攻击

文本中最近的大多数对抗攻击都与分类任务有关。 因此,我们首先从这方面介绍广告攻击。 在本节中,我们根据攻击者的需求将它们分为两部分。 下面将介绍每种攻击的技术细节和相应的注释,以使读者更加清楚。

1、非针对性分类攻击

在本部分中,以下研究均为文本中的非针对性攻击。 对于这种攻击,攻击者无需关心错误分类的类别。 非目标攻击可以分为基于FGSM的,基于优化的(optimization-based)和基于重要性的(importance-based)攻击。 其中,基于重要性的攻击是指通过对重要词进行修饰而对预测结果产生重大影响的攻击。

  • FGSM-based Approach

在图像领域对对抗性例子的研究比在文本领域更为活跃。因此,研究人员尝试将图像领域的方法应用于文本并获得更好的结果。他们提出了一些基于FGSM的有效方法,如下所述。

据我们所知,Papernot等人。 [21]首先研究了文本中的对抗性示例问题,并有助于产生对抗性输入序列。作者利用计算图展开[94]来评估正向导数[71],它与单词序列的嵌入输入有关。然后由FGSM计算结果以找出对抗性扰动。但是,修饰词的相应向量可能不存在。为了解决此映射问题,他们建立了一个特定的词典来选择单词以替换原始单词。尽管它们的对抗序列会使LSTM模型产生错误的预测,但输入序列中的单词却是随机选择进行替换的,因此对抗示例中语法错误的可能性非常高。

类似于[21],Samanta等。 [31]利用FGSM的概念来评估重要或显着的单词,这些单词在删除时会严重影响分类结果。然后,引入了三种修饰策略(即插入,替换和删除)来制作具有最高重要性的前k个单词,其中k为阈值。除删除策略外,前k个单词的插入和替换都需要附加的字典进行替换。因此,作者为实验中的每个单词建立了一个候选词库,包括同义词,错别字和特定于类型的关键字。但是,此过程会花费大量时间,并且实际输入中的前k个单词可能没有候选池。此方法也是基于重要性的方法。

  • Optimization-based Approach

不同于其他方法,佐藤等。 [25]在输入的嵌入空间中操作,并提出了一种名为iAdv-Text的方法。 它的核心过程可以看作是一个优化问题,它是在参数为W的整个训练数据集D上共同最小化反对函数 JiAdvT(D,W)。优化过程如公式(6)所示:

其中Xˆ和Yˆ分别是输入和标签。 λ是用于平衡两个损耗函数的超参数。 l(Xˆ,Yˆ,W)是D中单个训练样本(Xˆ,Yˆ)的损失函数。αiAdvT是寻找方向向量最坏情况权重的最大化过程。 其公式如(7)所示:

论文阅读-《Towards a Robust Deep Neural Network in Texts: A Survey》相关推荐

  1. 《基于卷积神经网络的深度迁移学习,用于燃气轮机燃烧室的故障检测》论文阅读

    目录 突出 抽象 引言 1.1动机 1.2文献综述获得的结论 1.3贡献 1.4组织 2方法 2.1燃汽轮机组故障知识共享 2.2迁移学习 2.3 基于卷积神经网络的深度迁移学习 2.4用于燃气轮机燃 ...

  2. 基于卷积神经网络和投票机制的三维模型分类与检索 2019 论文笔记

    作者:白静 计算机辅助设计与图形学学报 1.解决的问题 由于三维模型投影得到的视图是由不同视点得到,具有相对独立性,这种像素级的融合运算并没有直接的物理或者几何意义,更有可能造成图像有益信息淹没和混淆 ...

  3. TextCNN——基于卷积神经网络的文本分类学习

    1.CNN基础内容 CNN的全称是Convolutional Neural Network,是一种前馈神经网络.由一个或多个卷积层.池化层以及顶部的全连接层组成,在图像处理领域表现出色. 本文主要学习 ...

  4. 读懂深度迁移学习,看这文就够了 | 赠书

    百度前首席科学家.斯坦福大学副教授吴恩达(Andrew Ng)曾经说过:迁移学习将是继监督学习之后的下一个促使机器学习成功商业化的驱动力. 本文选自<深度学习500问:AI工程师面试宝典> ...

  5. 一种基于卷积神经网络的图像去雾研究-含matlab代码

    目录 一.绪论 二.去雾卷积网络 2.1 特征提取 2.2 多尺度映射 2.3 局部均值 2.4 非线性回归 三.实验与分析 四.Matlab代码获取 一.绪论 雾是一种常见的大气现象,空气中悬浮的水 ...

  6. 机械臂论文笔记(一)【基于卷积神经网络的二指机械手 抓取姿态生成研究 】

    基于卷积神经网络的二指机械手 抓取姿态生成研究 论文下载 摘要 第1章 绪论 1.1 抓取生成国内外研究现状 1.1.1已知物体抓取生成 1.1.2相似物体抓取生成 1.1.3 未知物体抓取生成 1. ...

  7. 毕业设计 - 基于卷积神经网络的乳腺癌分类 深度学习 医学图像

    文章目录 1 前言 2 前言 3 数据集 3.1 良性样本 3.2 病变样本 4 开发环境 5 代码实现 5.1 实现流程 5.2 部分代码实现 5.2.1 导入库 5.2.2 图像加载 5.2.3 ...

  8. 基于卷积神经网络与迁移学习的油茶病害图像识别

    基于卷积神经网络与迁移学习的油茶病害图像识别 1.研究思路 利用深度卷积神经网络强大的特征学习和特征表达能力来自动学习油茶病害特征,并借助迁移学习方法将AlexNet模型在ImageNet图像数据集上 ...

  9. Python深度学习实例--基于卷积神经网络的小型数据处理(猫狗分类)

    Python深度学习实例--基于卷积神经网络的小型数据处理(猫狗分类) 1.卷积神经网络 1.1卷积神经网络简介 1.2卷积运算 1.3 深度学习与小数据问题的相关性 2.下载数据 2.1下载原始数据 ...

  10. 基于卷积神经网络实现图片风格的迁移 1

    卷积神经网络详解 一.实验介绍 1.1 实验内容 Prisma 是最近很火的一款APP,它能够将一张普通的图像转换成各种艺术风格的图像.本课程基于卷积神经网络,使用Caffe框架,探讨图片风格迁移背后 ...

最新文章

  1. 掌握ASP.NET技术之捷径
  2. Nagios监控之9:利用sendmail使用第三方SMTP服务发送邮件报警
  3. MySQL DISTINCT:去重(过滤重复数据)
  4. 计算MACD(指数平滑移动平均线)Moving Average Convergence / Divergence
  5. 在 .NET 中设置页面元素的 javascript 事件 - IEBrowser [5]
  6. JVC DSP调音软件
  7. Java判断质数/素数的三种方法
  8. python -- 判断给定的参数是否是地理位置的经度和纬度
  9. 一种简单的zabbix客户端 主机hostid查看方法
  10. CS代理+proxychains+nmap进行内网扫描
  11. 电脑公司Windows7_X86旗舰版V0911
  12. springboot1.5.x+ seata1.4.2(最新版本)+springcloud ( Edgware.SR5) +eureka+feign+mybatis-plus(最新)
  13. Web设计师必须知道的11个SEO技巧
  14. “我与女明星只差一个毛戈平”,毛戈平与上市又差什么?
  15. POJ 1370 Gossiping 笔记
  16. buuctf web1
  17. ps -ef和ps -aux的区别
  18. WIN10隐藏任务栏和桌面图标(简易实现)
  19. 爬虫爬取京东产品数据
  20. Spring Security系列(10)- 微服务权限方案及Oauth2介绍

热门文章

  1. 软件测试--测试过程模型(V,W,H,X)
  2. 【easyui】去掉treegrid结点前面的文件及文件夹小图标
  3. 联想手机首发高通旗舰处理器骁龙855,能否借此打出一场翻身仗?
  4. 在天愿做比翼鸟,DBA只能和数仓死磕到老?
  5. Mysql、通信认证机制<前端学习笔记>
  6. 2018推荐云课堂数据分析师视频教程
  7. 关于Android studio 升级到2021.1.1(大黄蜂)创建项目,兼容旧项目遇到的问题
  8. 浅析中国移动上云的有效捷径——部署云盒子企业网盘!
  9. 探究maven项目的打包方式
  10. 服务器内存用完查看命令