1 引言

 在深度学习中,黑盒攻击是对抗攻击中最难的一种攻击方式,它不像白盒攻击可以获取到足够的模型和数据集的知识,它只能依靠简单的输入和输出映射信息来对未知模型进行攻击,所以,这就导致了黑盒攻击攻击成功率较低和查询次数较高的问题。在该论文中,作者提出了一种混合的攻击方式,将元对抗扰动作为初始化并利用模拟梯度进行黑盒攻击。元对抗扰动的一个优势在于有较好的迁移性和泛化性,作者利用元对抗扰动对去促进黑盒攻击方法的攻击效率。实验结果表明,论文中的方法在不仅可以提高攻击成功率,也可以有效地降低查询次数。

论文链接:https://arxiv.org/abs/2203.14607

2 相关工作

  黑盒攻击目前存在三种攻击方式,分别是基于迁移的方式,基于查询的方式和混合的方式。

  • 基于迁移的方式:如果一个对抗样本可以攻击当前的深度模型(该对抗样本可能是在白盒设置下产生的),那么它也有一定的概率可以成功攻击其它模型,但这种攻击方式的缺点在于攻击成功率较低。
  • 基于查询的攻击:这种攻击方式主要是通过查询结果的差异进而去估计模型的梯度。该攻击方式的一个主要的缺点在于如果想要达到一个较高的准确率则需要较高的查询次数。
  • 基于混合的方式:该攻击是将迁移攻击和查询攻击整合到一起,这样既可以考虑到到迁移的先验知识又能够利用到针对特定模型的模拟的梯度信息,该方法弥补了迁移攻击低准确率和查询攻击高访问代价的不足。

3 论文方法

 该论文的方法是属于混合攻击的方式, 但又与其它混合攻击将代理模型的梯度作为先验知识不同,该论文的方法目的是根据对抗样本的可迁移性和自适应性训练出一个更普适的对抗扰动作为扰动的初始状态值。在黑盒条件下,通过元学习的方式生成元对抗扰动,该扰动可以针对不同的图片进行更高效的对抗攻击。

3.1 元对抗扰动训练

 考虑一个黑盒模型fθf_\thetafθ​和已知结构和参数的代理模型fi,(i=1,2,⋯,n)f_i,(i=1,2,\cdots,n)fi​,(i=1,2,⋯,n)。一个随机初始化的元对抗扰动被记作vvv,LLL表示损失函数。D\mathbb{D}D表示用于生成元对抗扰动的训练集。当给定一批新的数据点B={xi,yi}∼D\mathbb{B}=\{x^i,y^i\}\sim\mathbb{D}B={xi,yi}∼D时,元对抗扰动vvv会被更新为v′v^{\prime}v′。作者的目的是找到一个通用的元对抗扰动vvv,对任何新的数据点它都是一个好的初始化对抗扰动值。对于有目标攻击中,一个扰动vvv满足如下公式f(x+v)=t,formostx∼μf(x+v)=t, \quad \mathrm{for \text{ } most\text{ }}x \sim \mu f(x+v)=t,for most x∼μ其中ttt是目标标签,μ\muμ是数据分布。元对抗扰动屏蔽样本特性,可以普适性攻击的特点对于黑盒攻击来说,既可以大大减少查询访问黑盒模型的次数,又能提高对抗攻击的效率。
 元对抗扰动主要通过使用梯度迭代法进行训练。因为黑盒攻击很难直接获取到目标模型的梯度,所以论文作者利用元学习在代理模型中进行训练,然后利用对抗样本的可迁移性对目标黑盒模型进行攻击。论文中采用多步迭代法在新数据点上更新元对抗扰动,具体的公式如下所示v′←v−α⋅1n∑i=1n∇vL(fi,B+v,t)v^{\prime}\leftarrow v - \alpha \cdot \frac{1}{n}\sum\limits_{i=1}^n\nabla_v L(f_i,\mathbb{B}+v,t)v′←v−α⋅n1​i=1∑n​∇v​L(fi​,B+v,t)其中α\alphaα是超参数,通常会被设置的很小。v′v^{\prime}v′是更新后的对抗扰动。对应的优化目标如下所示:min⁡v∑B′∼DL(fθ,B′+v′,t)\min\limits_{v}\sum\limits_{\mathbb{B}^{\prime}\sim\mathbb{D}}L(f_\theta,\mathbb{B}^{\prime}+v^{\prime},t)vmin​B′∼D∑​L(fθ​,B′+v′,t)对于以上优化目标,作者主要目的是在数据B\mathbb{B}B中找到一个更好的适应扰动v′v^{\prime}v′,然后在新的数据点迭代优化元对抗扰动v′v^{\prime}v′,进而可以获得一个最大有效的对抗干扰vvv,它可以以较高的成功率执行攻击,并获得更好的适应性。随机梯度下降法主要用于更新元对抗扰动vvv,具体的公式如下所示
v←v−β⋅1n∑i=1n∇v′L(fi,B′+v′,t)v \leftarrow v - \beta\cdot \frac{1}{n}\sum\limits_{i=1}^n\nabla_{v^{\prime}}L(f_i,\mathbb{B}^{\prime}+v^{\prime},t)v←v−β⋅n1​i=1∑n​∇v′​L(fi​,B′+v′,t)其中β\betaβ表示的是学习率。元对抗扰动的算法流程图如下所示

3.2 基于查询攻击

 利用该论文的方法,一些图像在添加元对抗扰动后可以成功地直接攻击黑盒模型,而无需其他操作,但如果攻击没有成功,则需要使用零阶优化算法持续执行攻击,以估计黑盒模型的梯度。这里使用RGF方法估计模型的梯度,具体的公式如下所示:
g^=1q∑k=1qf(x+δuk,y)−f(x,y)δ⋅uk\hat{g}=\frac{1}{q}\sum\limits_{k=1}^q\frac{f(x+\delta u_k,y)-f(x,y)}{\delta}\cdot u_kg^​=q1​k=1∑q​δf(x+δuk​,y)−f(x,y)​⋅uk​图像xxx通过使用在L∞L_{\infty}L∞​范数下的模拟梯度g^\hat{g}g^​进行迭代更新。为了提高攻击的效率,在迭代过程中加入了动量项,即图像的两个相邻迭代之间的差值。更新后的图片表示为xi+1=xi−γ⋅sign(g^)+η⋅(xi−xi−1)x_{i+1}=x_i-\gamma \cdot \mathrm{sign}(\hat{g})+\eta\cdot(x_i-x_{i-1})xi+1​=xi​−γ⋅sign(g^​)+η⋅(xi​−xi−1​)其中γ\gammaγ表示的是步长,η\etaη是动量系数,sign(⋅)\mathrm{sign}(\cdot)sign(⋅)是符号函数。在每一个步迭代后,都需要进行投影操作,具体公式如下所示:x=Πε(x)x = \Pi_{\varepsilon}(x)x=Πε​(x)其中Πε(x)\Pi_{\varepsilon}(x)Πε​(x)将向量xxx投影到范数球∥x∥2≤ε\|x\|_2\le \varepsilon∥x∥2​≤ε。如下图所示,为黑盒元对抗攻击的算法流程图

4 实验结果

 下表显示了黑盒攻击的成功率、生成对抗样本所需的平均查询数以及所有对抗样本的平均失真。可以看出,与其他方法相比,论文的方法通常会有更高的成功率、更少的查询次数和相对较小的失真。当查询数量有限时,论文的方法在某些模型中的成功率比其他方法提高了约10%,而且该方法通常使用较少的查询来获得相同的成功率。实验结果还表明,该方法生成的对抗扰动对新的数据点具有很好的可迁移性和适应性,可以很好地处理被攻击的数据集,并能很好地执行黑盒攻击。

 下图显示出了论文方法对抗样本可视化定性结果。左栏显示了要攻击的原始图像,中栏显示了论文方法生成的对抗干扰,右栏显示了与目标类对应的对抗样本。可以看出,论文的方法造成的图像扭曲几乎是看不见的。

 如下表所示,可以发现在不知道被攻击类的特征的情况下,论文的方法比其他方法获得了更高的成功率。在所有模型中,论文的方法实现了最高的攻击成功率,在某些模型中,成功率甚至提高了10%以上。但是由于缺乏先验特征知识,论文的方法在某些模型中会造成较大的失真情况。然而在整体性能方面仍然优于其他方法,同时也证明了该方法生成的对抗扰动具有良好的自适应性和通用性。

元学习提高黑盒对抗攻击相关推荐

  1. 黑盒攻击很难?元学习提高黑盒对抗攻击成功率

    关注公众号,发现CV技术之美 本文分享论文『Boosting Black-Box Adversarial Attacks with Meta Learning』,元学习提高黑盒对抗攻击. 详细信息如下 ...

  2. 《繁凡的论文精读》(一)CVPR 2019 基于决策的高效人脸识别黑盒对抗攻击(清华朱军)

    点我一文弄懂深度学习所有基础和各大主流研究方向! <繁凡的深度学习笔记>,包含深度学习基础和 TensorFlow2.0,PyTorch 详解,以及 CNN,RNN,GNN,AE,GAN, ...

  3. CVPR 2019 | 针对人脸识别系统的高效黑盒对抗攻击算法

    本工作提出了一种高效的基于决策的黑盒对抗攻击算法,在业内第一次以完全黑盒的方式成功地实现对人脸识别系统的对抗攻击.本工作由腾讯 AI Lab 主导,与清华大学,香港科技大学联合完成,发表于 CVPR ...

  4. 繁凡的对抗攻击论文精读(三)ICLR2019 利用先验知识进行高效黑盒对抗攻击的 bandits 算法(MIT)

    点我轻松弄懂深度学习所有基础和各大主流研究方向入门综述! <繁凡的深度学习笔记>,包含深度学习基础和 TensorFlow2.0,PyTorch 详解,以及 CNN,RNN,GNN,AE, ...

  5. 任奎:人工智能算法安全浅析——深度学习中的对抗攻击与防御

    2020-05-19 19:52:46 任奎 随着计算机产业发展带来的计算性能与处理能力的大幅提高,人工智能在音视频识别.自然语言处理和博弈论等领域得到了广泛应用.在此背景下,确保人工智能的核心--深 ...

  6. 任何网络都能山寨!新型黑盒对抗攻击可模拟未知网络进行攻击 | CVPR 2021

    来源:AI科技评论本文约3500字,建议阅读9分钟本文解读对抗攻击与元学习联姻的两篇典型的论文. 最近几年,元学习风生水起,这阵风也刮到了对抗攻击领域.本文解读对抗攻击与元学习联姻的两篇典型的论文(本 ...

  7. AAAI 2020 开源论文 | 一种针对图嵌入模型的受限黑盒对抗攻击框架

    AAAI(人工智能促进协会年会)是人工智能领域的顶级国际会议之一.今年的 AAAI 2020 是第 34 届,于 2 月 7 日至 12 日在美国纽约举行.今年,第 3 次参会的腾讯 AI Lab 共 ...

  8. 繁凡的对抗攻击论文精读(二)CVPR 2021 元学习训练模拟器进行超高效黑盒攻击(清华)

    点我轻松弄懂深度学习所有基础和各大主流研究方向入门综述! <繁凡的深度学习笔记>,包含深度学习基础和 TensorFlow2.0,PyTorch 详解,以及 CNN,RNN,GNN,AE, ...

  9. 图对抗攻击及防御算法种类

    一. 图对抗攻击 按照攻击算法在图中添加扰动的不同阶段,可以将图对抗攻击分为两类,分别为逃逸攻击和投毒攻击.其中逃逸攻击是攻击者构造对抗样本在模型测试简短欺骗目标模型,而投毒攻击是攻击者在模型训练阶段 ...

  10. 神经网络中的对抗攻击与对抗样本

    文章来源:https://baijiahao.baidu.com/s?id=1596201339578975526&wfr=spider&for=pc 前言 在学习神经网络白盒.黑盒对 ...

最新文章

  1. GOF23设计模式(创建型模式) 原型模式
  2. matlab subs
  3. openstack常用命令及控制节点端口一览
  4. 开始使用VS2005+ASP.NET+Access(以后可能是MS SQL Server)编写管理系统的计划
  5. 098 Validate Binary Search Tree 验证二叉搜索树
  6. 端计算(9)-android opencv(1)
  7. javascript核心
  8. Linux 入门必看:如何60秒内分析Linux性能
  9. 交换机用光纤模块互连一端灯不亮或两端都不亮,如何处理?
  10. google海底光缆图_感受技术震撼:全球海底光缆分布图详解(附源地图链接)
  11. 用python排序算法_用Python实现常见的排序算法
  12. 【web前端开发】vs code插件推荐
  13. opensips mysql_opensips中使用mysql实现用户认证
  14. 如何判断和删除Orphaned site collections?
  15. 华为防火墙基础自学系列 | 证书申请方式
  16. COM Interop入门
  17. c++求范围内既是素数又是回文数的数的个数
  18. Ireport 导出pdf 特殊字体设置
  19. wow(2) : UI插件_EUI[2]_正式服配置分享
  20. C++中的堆内存、栈内存和静态内存

热门文章

  1. Element-UI Select 下拉框 根据汉字拼音过滤选择选项(使用filter-method,filterable属性)
  2. 意创坊-移动富媒体平台
  3. C#企业微信邮箱发送邮件问题_Error: authentication failed, system busy
  4. 扬帆跨境电商:虾皮如何匹配最佳图片
  5. h2o flow初探
  6. win7网上邻居_CentOS7 Linux访问Win7的共享文件夹
  7. 论初唐诗人的历史地位-上官仪、王勃、杨炯、陈子昂、杜审言
  8. Microsoft SQL Server2005服务器安全与维护-李晨光-专题视频课程
  9. ubuntu 18.04 安装搜狗拼音输入法(没有坑)
  10. Centos8 硬盘扩容