近年来深度学习技术不断突破,极大促进了人工智能行业的发展,但人工智能模型本身易受到对抗攻击从而引起严重后果。对原始样本有针对性地加入微小扰动,该扰动不易被人眼所察觉,但会导致人工智能模型识别错误,这种攻击被称为“对抗攻击“。本次报告首先介绍了深度神经网络中对抗样本的基本概念,分析经典的对抗样本攻击方法,接着介绍了对抗攻击的防御思路,并讲解了两篇领域内经典的防御论文,为之后深度神经网络对抗样本防御的研究提供了方向。
深度神经网络对抗样本防御方法-王琛原创文章,作者:BFS,如若转载,请注明出处:https://www.isclab.org.cn/2021/01/04/%e6%b7%b1%e5%ba%a6%e7%a5%9e%e7%bb%8f%e7%bd%91%e7%bb%9c%e5%af%b9%e6%8a%97%e6%a0%b7%e6%9c%ac%e9%98%b2%e5%be%a1%e6%96%b9%e6%b3%95/