Henry-C
Henry-C
全部文章
AEs
css(1)
ctf(1)
docker(1)
git(1)
html(1)
latex(1)
linux(1)
python(2)
shell(1)
stl(2)
technology(2)
大数据(9)
数据结构(7)
未归档(1)
归档
标签
去牛客网
登录
/
注册
ch1762のblog
可惜时光之里山南水北,可惜你我之间人山人海。
全部文章
/ AEs
(共23篇)
[paper]ADVERSARIAL REPROGRAMMING OF NEURAL NETWORKS
传统对抗样本目的是使模型分类错误,本文通过则是使模型执行特定任务(攻击者设定),且该任务可以未被训练过。 We introduce attacks that instead reprogram the target model to perform a task chosen by the ...
2021-10-25
0
419
[paper]Distillation as a Defense to Adversarial Perturbations against Deep Neural Networks
本文提出了一个防御算法,在不改变深度神经网络的结构并且在尽可能小的影响模型准确率的前提下能够有效地抵御对抗样本的攻击。 We use the knowledge extracted during distillation to reduce the amplitude of network ...
2021-10-25
0
469
[转载][paper]Threat of Adversarial Attacks on Deep Learning in Computer Vision: A Survey
文章目录 摘要 深度学习是当前人工智能崛起的核心。在计算机视觉领域,它已经成为从自动驾驶汽车到监控和安全等各种应用的主力。虽然深度神经网络在解决复杂问题方面取得了惊人的成功(通常超出了人类的能力),但最近的研究表明,它们很容易受到对手的攻击,这种攻击的形式是对输入的微妙扰动,...
2021-10-25
0
683
[paper]AdvJND:Generating Adversarial Examples with Just Noticeable Difference
生成对抗样本有两个要求:攻击成功率和图像保真度指标。 增加扰动可以确保对抗样本的攻击成功率很高; 但是生成的对抗样本隐蔽性很差。 为了在攻击成功率和图像保真度之间取折衷,提出了一种名为AdvJND的方法,该方法在生成对抗样本时在失真函数的约束下添加了视觉模型系数,该系数用来衡量视觉上的差异。AdvJ...
2021-10-25
0
459
[paper]Adversarial Transformation Networks: Learning to Generate Adversarial Examples
本文提出了ATN(Adversarial Transformation Network)方法来生成对抗样本。之前的许多方法都是利用梯度信息进行攻击,本文通过训练一个神经网络,将原图作为输入,输出为对抗样本。在给定原始输入的情况下,对分类器的输出进行最小的修改,同时限制新分类以匹配对抗目标类。 ATN...
2021-10-25
0
681
[paper]ADVERSARIAL EXAMPLES IN THE PHYSICAL WORLD
本文指出在现实世界的场景下,机器学习系统也是非常脆弱的。并提出了BIM&ILCM算法,可用于现实世界场景下的对抗样本生成。 论文主要内容: 探讨了为在物理世界中运行的机器学习系统创建对抗样本的可能性 提出了两种方法来生成对抗样本,BIM&ILCM: 引入破坏率来表示现实世...
2021-10-25
0
489
[paper]Boosting Adversarial Attacks with Momentum
本文提出一个基于动量(Momentum)的迭代算法,该方法通过梯度以迭代的方式对输入进行扰动以最大化损失函数,并且该方法还会在迭代过程中沿损失函数的梯度方向累加速度矢量,目的是稳定更新方向并避免糟糕的局部最大值。从而产生更好的可迁移(transferable)的对抗样本,解决了对抗样本生成算法对于黑...
2021-10-25
0
539
[paper]Towards Evaluating the Robustness of Neural Networks(C&W)
本文提出了针对Denfensive distillation这种防御措施的C&W算法(基于三种不同距离的对抗样本生成算法),同时也具有一定的迁移性。 本文把构建对抗样本的过程转化为一个最优化问题: 其中 D D D是衡量原始图像与对抗样本之间的距离, 三种不同距离分别为 L 0 L_{0}...
2021-10-25
0
525
[paper]DeepFool: a simple and accurate method to fool deep neural networks
本文目标是寻求最小的扰动来达到生成对抗样本的目标,因此提出了DeepFool的算法来生成扰动,并且提出了一种量化分类器鲁棒性的方法。 这是第一个通过计算出最小的必要扰动,并应用到对抗样本构建的方法,使用的限制扰动规模的方法是L2范数。最终得到的对抗样本效果要优于前面的FGSM和JSMA方法,但是这三...
2021-10-25
0
597
[paper]EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES(FGSM)
早期关于对抗样本产生原因的被认为是由于神经网络的非线性和过拟合,但是这篇论文证明对抗样本是由于神经网络在高维空间中的线性属性产生的。同时,这篇论文提出了一个能够简单快速的生成对抗样本的方法(FGSM)。 论文主要内容总结: 模型的线性属性让其更容易被训练,而其非线性让其容易抵御对抗扰动的攻击...
2021-10-25
0
459
首页
上一页
1
2
3
下一页
末页