Py学习  »  机器学习算法

机器学习界“硝烟再起”:今年 ICLR 8 篇防御相关论文,7 篇已被攻破

DeepTech深科技 • 6 年前 • 612 次点击  

 长按识别二维码,报名2018十大突破技术全球直播首发


最近,一篇论文的横空出世又引发了机器学习学术界的大讨论。无论是被誉为“GANs 之父”的 Ian Goodfellow,还是谷歌大脑负责人 Jeff Dean 都参与其中。


论文地址:

https://arxiv.org/abs/1802.00420 


这篇论文名为《Obfuscated Gradients Give a False Sense of Security: Circumventing Defenses to Adversarial Examples》(用混淆梯度制造虚假安全感:绕过对抗样本防御),作者之一就是来自麻省理工学院的 Anish Athalye。

 


文章之所以引战度很高,是因为 Anish Athalye 在其推特上宣称,“对抗样本防御依然悬而未决。三天前的 ICLR 接收的论文中,我们已经攻破了其中 7/8 的防御相关论文。”ICLR 会议 (the International Conference on Leaning Representations) 是一个在深度学习领域极具行业影响力的学术会议。


Anish Athalye 还表态称:“我们研究了 ICLR 论文,结果并不令人满意”。其论文也宣称,“混淆梯度”给防御对抗样本带来了虚假的安全感,尽管基于混淆梯度的防御可以打败基于优化的攻击,但这样的防御仍能被攻破。


具体而言,他们的样本研究试验了 ICLR 2018 接收的所有防御措施,其中混淆梯度的使用非常普遍,8 个防御中 7 个依靠混淆梯度,但他们的新型攻击技术依然成功攻破了 7 个。


 GitHub 地址:

https://github.com/anishathalye/obfuscated-gradients 

 


在 Anish Athalye 的 GitHub 中,他演示了如何对猫的图像加入轻微的干扰就能“欺骗”机器的例子。最后,机器将猫头像错认成“果酱”。他认为,使用梯度下降法就能轻易获得这样的“欺骗性图像”。

 


对于 Anish Athalye 的这番言论,Ian Goodfellow 提出质疑。他说:“文中提出的‘混淆梯度’其实是给‘梯度掩码’换个名号而已”。


图丨多种对抗性样本防御方法在攻击下的鲁棒性


目前,Anish Athalye 尚未回应 Ian Goodfellow 的这一观点。

 

-End-




今天看啥 - 高品质阅读平台
本文地址:http://www.jintiankansha.me/t/BZyQRziERh
Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/6718
 
612 次点击