现阶段,AI安全性研究逐渐成为学术界和工业界的重要议题和研究方向。之前大多数研究放在了测试阶段的攻击(例如对抗样本)。本文从另一个角度,即训练阶段入手,探讨如何通过有界扰动修改训练数据,从而最大程度上混淆分类器,让其在测试部署阶段做出错误判断。为此,来自南京大学和创新工场AI工程院的研究者提出使用类似自编码器的网络来生成这样的扰动,此类扰动具有较强的鲁棒性和迁移能力,并在CIFAR-10等数据集上验证了所提方法的有效性。论文链接:
转载请注明:
http://www.aideyishus.com/lktp/6703.html