人类视觉系统

Neural Networks are exceptionally good at recognizing objects shown in an image and in many cases, they have shown superhuman levels of accuracy(E.g.-Traffic sign recognition).

神经网络非常擅长识别图像中显示的物体,并且在许多情况下,它们已经显示出超人的准确度(例如,交通标志识别)。

But they are also known to have an interesting property where we can introduce some small changes to the input photo and have the Neural Network wrongly classify it into something completely different. Such attacks are known as adversarial attacks on a Neural Network. One important variant is known as the Fast Gradient sign method, by Ian GoodFellow et al, as seen in the paper Explaining and Harnessing Adversarial Examples. If properly implemented, such methods can add noise to the image barely perceptible to the human eye but it fools the Neural Network classifier. One classic example is shown below.

但是也众所周知,它们具有有趣的属性,我们可以在输入的照片上进行一些细微的更改,并使神经网络将其错误地分类为完全不同的东西。 这种攻击被称为对神经网络的对抗攻击。 一个重要的变体被Ian GoodFellow等人称为快速梯度符号法,如论文“ 解释和利用对抗性示例”中所见。 如果实施得当,此类方法可能会给人眼几乎看不到的图像增加噪点,但却使神经网络分类器蒙昧。 下面显示了一个经典示例。

Explaining and Harnessing Adversarial Examples(Goodfellow et al)解释和利用对抗示例 (Goodfellow等)

See here how just altering just one pixel can cause a Neural Network to make wrong classifications. So an obvious conclusion we might be tempted to make is that Neural Nets are weaker than human vision and such attacks can never fool the human eye. But according to the paper titled Adversarial Examples that Fool both Computer Vision and Time-Limited Humans by Elsayed et al it turns out some properties of Machine Vision can also be used to fool the human visual system.

此处仅更改一个像素如何导致神经网络做出错误的分类。 因此,我们可能会想得出一个显而易见的结论,那就是神经网络比人类的视力还弱,并且这种攻击永远不会愚弄人的眼睛。 但是根据Elsayed等人题为“ 愚弄计算机视觉和限时人类的对抗示例”的论文,事实证明,机器视觉的某些属性也可用于愚弄人类视觉系统。

提示转移到人类视觉的一些线索: (Some clues suggesting transfer to human vision:)

The fact that an adversarial image that fools one model can also be used to fool other models enables researchers to perform Black box attacks where attacker does not have access to the model. It has been shown by Liu et al that transferability of adversarial examples can be greatly improved by optimizing it to fool many Machine Learning models. Moreover, recent studies on stronger adversarial attacks that transfer across multiple settings have sometimes produced adversarial examples that appear far more meaningful to human observers.

愚弄一个模型的对抗图像也可以用来愚弄其他模型的事实,使研究人员能够在攻击者无法访问模型的情况下进行黑匣子攻击 。 Liu等人已经表明,通过优化欺骗性示例以欺骗许多机器学习模型,可以大大提高对抗性示例的可传递性。 此外,最近有关在多种情况下转移的更强对抗攻击的研究有时会产生对抗示例,这对于人类观察者而言似乎更有意义。

生物与人工视觉: (Biological vs Artificial Vision:)

PixabayPixabay

Similarities:

相似之处:

Recent research has found similarities between Deep CNNs and the primate vision system. Certain activities in Deep CNNs are similar to the visual pathways of primates.

最近的研究发现,深层CNN与灵长类动物视觉系统之间存在相似之处。 深度CNN中的某些活动类似于灵长类动物的视觉通路。

Differences:

差异:

Images are typically presented to CNNs as a static rectangular grid while the eye has eccentricity dependent on spatial resolution. Resolution is high in the central visual field and falls off with increasing eccentricity. Besides there are major computational differences.

图像通常以静态矩形网格的形式呈现给CNN,而眼睛的偏心率取决于空间分辨率。 在中央视野中,分辨率很高,并且随着离心率的增加而降低。 此外,在计算上也存在重大差异。

数据生成过程的说明: (Description of the Data generating Process:)

Dataset:

资料集:

Images were taken from the Imagenet dataset containing 1000 highly specific classes. Some are too specific for the typical human annotator to identify.So these were combined to six coarse classes.

图像是从Imagenet数据集中获取的,其中包含1000个高度特定的类别。 有些注释对于典型的人类注释者而言太具体了,因此将它们分为六个粗略的类别。

Model:

模型:

An Ensemble of k CNN models were trained on the dataset. Each model was also prepended with a retinal layer which preprocesses the input and includes some transformations performed by the human eye. In this layer eccentricity dependent blurring of the image is done to approximate the input received by the human visual cortex.

在数据集上训练了k个CNN模型的集合。 每个模型还都带有视网膜层,该视网膜层对输入进行预处理,并包括人眼执行的某些转换。 在这一层中,完成了图像的偏心率相关模糊处理,以近似人类视觉皮层接收的输入。

Generating Images:

生成图像:

The main goal is to generate targeted examples for each group that strongly transfers across models. So for each class (A,B) the authors have generated perturbations such that the models wrongly classifies images from A to B and also similar images are constructed to wrongly classify from B to A.

主要目标是为在模型之间进行强烈转移的每个组生成目标示例。 因此,对于每个类别(A,B),作者都产生了扰动,使得模型将图像从A错误地分类为B,并且还构建了相似的图像以从B错误地分类为A。

结果: (Results:)

paper(Elsayed et al)本文补充部分(Elsayed等)

The image above is a typical image generated using this process. The first image looks like a cat while the second one looks like a dog. But strangely the second image is also a cat with some carefully crafted adversarial noise that makes us humans perceive it as a dog. The obvious changes made to the image is the fact that the nose appears to be longer and thicker but several feline features are also retained like whiskers in spite of which we see a dog.

上面的图像是使用此过程生成的典型图像。 第一张图片看起来像猫,第二张图片看起来像狗。 但是奇怪的是,第二张图片也是一只猫,上面有一些精心制作的对抗性噪音,使我们人类将其视为狗。 对图像进行的明显改变是,鼻子看起来更长,更粗,但也保留了一些猫科动物的特征,如胡须,尽管我们看到了一只狗。

The main takeaways are:

主要的收获是:

  1. Attacks created by the method mentioned in the paper transfer very well across different machine vision systems.本文中提到的方法所产生的攻击在不同的机器视觉系统之间可以很好地传递。
  2. Among humans the authors have experimentally proved using human annotators that the attack influences the choice between incorrect classes as well as increases the human error rate.在人类中,作者使用人类注释器通过实验证明了攻击会影响错误类别之间的选择,并增加人类错误率。
paper(Elsayed et al)论文中所见,由生成网络执行的不同操作的一些示例(Elsayed等)

结论: (Conclusion:)

In this work, the authors have shown that adversarial examples can fool multiple vision systems as well as time-limited humans. This provides some evidence of striking similarity between the machine and the human visual system. This can create avenues for further research in both Neuroscience and Computer Science.

在这项工作中,作者已经表明,对抗性例子可以欺骗多个视觉系统以及有时间限制的人类。 这提供了机器与人类视觉系统之间惊人相似性的一些证据。 这可以为神经科学和计算机科学的进一步研究创造途径。

翻译自: https://towardsdatascience.com/adversarial-attacks-on-the-human-visual-system-38809d53dec1

人类视觉系统


http://www.taodudu.cc/news/show-863776.html

相关文章:

  • 在神经网络中使用辍学:不是一个神奇的子弹
  • 线程监视器模型_为什么模型验证如此重要,它与模型监视有何不同
  • dash使用_使用Dash和SHAP构建和部署可解释的AI仪表盘
  • 面向表开发 面向服务开发_面向繁忙开发人员的计算机视觉
  • 可视化 nltk_词嵌入:具有Genism,NLTK和t-SNE可视化的Word2Vec
  • fitbit手表中文说明书_使用机器学习预测Fitbit睡眠分数
  • redis生产环境持久化_在SageMaker上安装持久性Julia环境
  • alexnet vgg_从零开始:建立著名的分类网2(AlexNet / VGG)
  • 垃圾邮件分类 python_在python中创建SMS垃圾邮件分类器
  • 脑电波之父:汉斯·贝格尔_深度学习,认识聪明的汉斯
  • PyCaret 2.0在这里-新增功能?
  • 特征选择 回归_如何执行回归问题的特征选择
  • 建立神经网络来预测贷款风险
  • redshift教程_分析和可视化Amazon Redshift数据—教程
  • 白雪小町_町
  • 机器学习术语_机器学习术语神秘化。
  • centos有趣软件包_这5个软件包使学习R变得有趣
  • 求解决方法_解决方法
  • xml格式是什么示例_什么是对抗示例?
  • mlflow_在生产中设置MLflow
  • 神秘实体ALIMA
  • mnist数据集彩色图像_使用MNIST数据集构建多类图像分类模型。
  • bert使用做文本分类_使用BERT进行深度学习的多类文本分类
  • 垃圾邮件分类器_如何在10个步骤中构建垃圾邮件分类器
  • ai 图灵测试_适用于现代AI系统的“视觉图灵测试”
  • pytorch图像分类_使用PyTorch和Streamlit创建图像分类Web应用
  • 深度学习之对象检测_深度学习时代您应该阅读的12篇文章,以了解对象检测
  • python 梯度下降_Python解释的闭合形式和梯度下降回归
  • 内容管理系统_内容
  • opencv图像深度-1_OpenCV空间AI竞赛之旅(第1部分-初始设置+深度)

人类视觉系统_对人类视觉系统的对抗攻击相关推荐

  1. 开源mes系统_如何让iMES系统快速落地变得so easy?

    如何让iMES系统快速落地变得so easy?没有任何一套iMES系统不经交付过程,就可以完美的匹配于企业的业务流程,尽快现在很多基于SaaS概念的云端的iMES产品号称可以2周上线,但是只有经过精心 ...

  2. 法庭智能语音系统_法庭智能语音识别系统_法庭智能语音系统解决方案_深圳市亚讯威视数字技术有限公司...

    法庭智能语音系统 现状与需求 庭审过程中,需要形成文字版庭审记录,便于事后追溯或跟踪.现有的人工听写方式受限于记录员的业务熟练程度和打字速度,导致记录效率较低.浪费人力.采用信息化手段改善记录工作,提 ...

  3. 联想ghost重装系统_联想电脑怎么重装系统的方法

    联想电脑怎么重装系统呢?电脑在使用长了以后就免不了会发生一些问题,运行的速度越来越慢,这个时候如果找不到具体原因,就只能重装系统了,那么怎么重装联想电脑win7系统,联想电脑怎么重装系统呢?这些问题虽 ...

  4. MySQL学生综合测评系统_大学生综合测评系统的设计和实现(MySQL)

    大学生综合测评系统的设计和实现(MySQL)(任务书,开题报告,中期检查表,毕业论文20000字,程序代码,数据库) 摘  要 本文详细介绍了本系统设计的基本方法.系统的需求分析.系统的架构设计和系统 ...

  5. 产品防伪码查询系统_学历学籍查询系统_证书查询系统_录取成绩查询系统_工资查询系统_信息查询系统

    本查询系统是一个万能自助式查询系统,可以根据需要生成自己需要的查询系统,如:产品防伪码查询系统.学历学籍查询系统.证书查询系统.录取成绩查询系统.工资查询系统.教师学生信息查询系统等等. 价格:200 ...

  6. python日志审计系统_综合日志审计系统

    原标题:综合日志审计系统 产品简介 中安威士综合日志审计系统(简称VS-LS),该系统 能够通过主被动结合的手段,实时不间断地采集用户网络中各种不同厂商的安全设备.网络设备.主机.操作系统.以及各种应 ...

  7. dell系统重装后无法进入系统_无法开机重装系统 详解戴尔电脑开不了机重装win10系统教程...

    今天小编给大家带来了戴尔电脑开不了机重装win10系统教程,win10系统是现在大部分朋友都在使用的操作系统,但是在使用过程中有时因为错误操作,中病毒,丢失系统文件等原因造成系统崩溃.遇到电脑崩溃开不 ...

  8. 重装linux系统删除旧系统_什么是重装系统?工控机重装系统的几种方法

    什么是重装系统呢?工控机重装系统是指对工控机操作系统进行重新的安装.当用户错误操作或遭受病毒.木马程序的破坏,系统中的重要文件就会受损导致错误,甚至崩溃无法启动,因此不得不重新安装. 另外,一些喜欢操 ...

  9. 油田智能化远程监控系统_油田远程监控系统

    适用范围: 排水泵站远程监控系统适用于城市排水泵站的远程监控及管理.泵站管理人员可以在泵站管理处的监控中心远程监测站内格栅机的工作状态.污水池水位.提升泵组 工作状态.出站流量.池内有害气体浓度等;支 ...

最新文章

  1. lattice LFE3-17EA 调试记录
  2. mysql期中考试题及答案_MySQL练习题及答案
  3. 初始化QChart极坐标图(含曲线、散点)
  4. java并发编程实践学习---java的类锁和对象锁
  5. 批处理不同目录下的bat调用
  6. 记Angular与Django REST框架的一次合作(2):前端组件化——Angular
  7. 使用Python剪辑 拼接音频文件
  8. stm32的语音识别_基于STM32的嵌入式语音识别模块设计
  9. Nvidia Jetson AGX Xavier 安装 Swin-Transformer-Object-Detection
  10. 私有化部署的知识文档系统,不再担心文档数据泄漏
  11. Unity Shader数学基础 -- Shader入门精要学习(3)
  12. VPS与云主机指南:了解五个主要区别
  13. 安卓开发笔记——APP闪退解决方案
  14. 三级分销如何做分销推广 如何设置分销比例
  15. 在线考试系统软件测试总结,在线考试系统软件测试用例报告.doc
  16. adb安装报错情形以及解决办法
  17. Java 的垃圾回收
  18. 1px、1em、1rem、1vh / 1vw 的含义
  19. 【机器学习】机器学习简介
  20. error LNK2001: 无法解析的外部符号 解决方法

热门文章

  1. 2.平凡之路-初识MyBatis
  2. JDK的bin目录下各种工具的使用说明_对不起自己,这么久没写博,抱歉
  3. RabbitMQ -- Hello world
  4. 依赖注入容器 Castle windsor的使用
  5. C#系列五《程序的分支》
  6. 用innerHTML给textarea的value赋值,IE下丢失换行
  7. java replaceall正则表达式_编写高性能Java代码的最佳实践
  8. 计算机关机后自行启动,电脑关机后自动开机
  9. idea怎么直接拉去git_我用了一条Git命令,帮助同事免去了失业的风险
  10. 日常动手之:用python画行情图