Henry-C
Henry-C
全部文章
AEs
css(1)
ctf(1)
docker(1)
git(1)
html(1)
latex(1)
linux(1)
python(2)
shell(1)
stl(2)
technology(2)
大数据(9)
数据结构(7)
未归档(1)
归档
标签
去牛客网
登录
/
注册
ch1762のblog
可惜时光之里山南水北,可惜你我之间人山人海。
全部文章
/ AEs
(共23篇)
[转载]Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images
论文内容总结 首次提出假反例攻击,即:生成人类无法识别的图片,却能够让神经网络以高置信度分类成某个类别 使用了多种不同的方法生成图片,称为“fooling images” 普通的EA算法,对图片的某个像素进行变异、进化 CPPN EA算法,可以为图像提供一些几何特性,如对...
2021-10-25
0
390
[paper]Intriguing properties of neural networks(L-BFGS)
本文提出了神经网络的两个有趣的特性: 各个高级单元和高级单元的随机线性组合之间没有区别,即在神经网络的高层中包含语义信息的是空间而不是单个单元。 深度神经网络学习的输入—输出映射在相当大的程度上是不连续的。通过使用一些难以察觉的扰动可以造成模型的误分类,这种特定的扰动可以通过最大化网络的预测...
2021-10-25
0
516
[paper]Practical Black-Box Attacks against Machine Learning
本文提出了对抗样本的黑盒攻击策略,也就是在没有分类训练数据或模型知识的情况下生成对抗样本。 即通过构建一个综合数据集(通过收集目标分类器的输入和输出),以训练目标模型的替代品(本地构建的相似的模型),实现对目标模型的攻击。 三个关键属性: (a)所需的功能仅限于观察输出类标签 (b)查询的标签数量...
2021-10-25
0
418
[paper]One Pixel Attack for Fooling Deep Neural Networks
之前对抗攻击算法都是在整个图像的所有像素点上做微小的扰动,以达到欺骗模型的目的。而本文的思想是只改变少量的像素点,甚至在只改变一个像素点的极端情况下就能获得较好的攻击效果。提出了一种基于差分进化(DE)生成单像素对抗样本的黑盒攻击(仅需要概率标签)算法。由于DE的固有属性,仅需要较少的对抗信息就可以...
2021-10-25
0
634
[paper]SPATIALLY TRANSFORMED ADVERSARIAL EXAMPLES
本文提出了一种基于空间变换(spatially transformed)(smooth image deformation)的对抗样本生成算法。( L p L_p Lp距离较大,但图像更真实更不容易被检测) 之前的生成算法大多是将 L p L_p Lp范数作为损失函数,然后直接调整像素值。 两...
2021-10-25
0
873
[paper]Universal adversarial perturbations
本文提出了计算自然图像中普遍扰动的算法,在神经网络上具有很好的泛化性,并且揭示了模型在高维空间中决策边界的几何联系。并且说明了在输入空间中存在单个方向的潜在安全漏洞,攻击者可能会利用这些漏洞造成模型对大多数自然图像分类错误。 universal 算法: μ \mu μ是图像分布 v v v是...
2021-10-25
0
330
[paper]The Limitations of Deep Learning in Adversarial Settings(JSMA)
与之前的基于提高原始类别标记的损失函数或者降低目标类别标签概率的损失函数的方式不同,这篇文章提出利用输入特征到输出值之间的对抗显著性,达到只需修改少量的输入值即可误分类的目的。 换句话说,之前的对抗样本的扰动方向都是损失函数的梯度方向(无论是原始类别标记的损失函数还是目标类别标记的损失函数),该论...
2021-10-25
0
576
[paper]UPSET and ANGRI:Breaking High Performance Image Classifiers
本文提出了两种攻击算法,第一种是针对输出类别生成通用扰动(定向攻击),第二种针对不同图像生成特定扰动(定向攻击)。 UPSET:Universal Perturbations for Steering to Exact Targets UPSET网络为针对原始图像生成具有通用扰动的对抗样本,且...
2021-10-25
0
479
[paper]ADVERSARIAL MACHINE LEARNING AT SCALE
本文的贡献包括: (1)如何将对抗训练扩展到大型模型和数据集; (2)对抗训练赋予单步攻击算法鲁棒性的原理; (3)发现多步攻击算法的可移植性相比单步攻击算法要差一些,因此单步攻击算法最适合于发动黑盒攻击。 (4)对于“标签泄漏”效应的解决方法。 “标签泄漏”效应即经过对抗训练的模型在对抗样本上的性...
2021-10-25
0
399
[paper]Defense against Adversarial Attacks Using High-Level Representation Guided Denoiser
本文提出了一种防御方法,即由高级特征主导的去噪器 high-level representation guided denoiser(HGD)。 标准去噪器具有误差放大效应,在这种效应中,较小的残留对抗噪声影响会逐渐放大,最终导致错误的分类。HGD通过将损失函数定义为由干净图像和去噪图像激活的目标模...
2021-10-25
0
612
首页
上一页
1
2
3
下一页
末页