打脸自动驾驶的目标检测安全论:强对抗样本

2017年07月18日 由 yuxiangyu 发表 647100 0
我们创建了一种能从不同的尺寸和视角欺骗神经网络分类器的图像。这对“自动驾驶从不同的尺寸和视角获取图像所以不用担心被欺骗”的说法发起了挑战。

[video width="720" height="576" mp4="https://www.atyun.com/uploadfile/2017/07/iphone.mp4"][/video]

把小猫的照片用彩色打印机打印出来,欺骗分类器,让它无论它是放大缩小还是旋转都被认为它是一个显示屏台式电脑。我们认为进一步的参数调整也会消除任何肉眼可见的人造物。

现有的对抗样本在图像转换中表现并不合格。下面,我们展示了同一个猫的图片,在ImageNet库中的 Inception v3受到干扰被错误地将猫分类成台式机。放大到1.002时,正确分类概率的标签“花猫”就能够覆盖对抗性的标签“台式机”。

[video width="720" height="576" mp4="https://www.atyun.com/uploadfile/2017/07/naive.mp4"][/video]

然而我们怀疑如果我们更努力可以产生更强有力的对抗样本。因为对抗的样本已经被证明可以转移到物理世界中。

Scale-invariant对抗样本


我们可以用一种称为投影梯度下降法的优化方法创建对抗样本,这种方法可以在图片中找到能任意欺骗分类器的小的干扰。

我们没有寻求从单一的角度来优化对抗输入,而是优化了一系列的随机分类器,它们在对输入进行分类之前,随机地重新调整输入。这样优化得到scale-invariant强对抗样本。

[video width="720" height="576" mp4="https://www.atyun.com/uploadfile/2017/07/scale-invariant.mp4"][/video]

一个scale-invariant对抗样本。

甚至我们限制自己只修改与猫对应的像素,我们也可以创建一个单独的干扰图像在所有尺寸内都能进行干扰。

Transformation-invariant对抗样本


通过将训练扰动中的随机旋转,平移,缩放,噪点和平移,同样的技术产生了在任何这些变换下保持对抗性的单一输入。

[video width="720" height="576" mp4="https://www.atyun.com/uploadfile/2017/07/transform-invariant.mp4"][/video]

 

一个transformation-invariant的对抗例子。

请注意,它比scale-invariant的干扰更加明显。直观上看来,小的对抗在干扰不变的样本上很难被找到。

我们的变换在测试时随机抽样,表明我们的样本对变换的整体分布是不变的。
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消