2013年以来深度的神经网络模型在各方面得到了广泛应用,甚至在某些方面达到可以匹配人类的性能,用于“欺骗”神经网络的对抗样本(Adversarial examples)是近期计算机视觉和机器学习领域的热门研究方向。本次学术报告分析介绍了对抗样本的产生的根本原因、对抗样本生成方法、对抗样本防御思路以及最新的研究进展。
原创文章,作者:BFS,如若转载,请注明出处:https://www.isclab.org.cn/2018/08/01/%e6%b7%b1%e5%ba%a6%e7%a5%9e%e7%bb%8f%e7%bd%91%e7%bb%9c%e4%b8%ad%e7%9a%84%e5%af%b9%e6%8a%97%e6%a0%b7%e6%9c%ac%e6%94%bb%e9%98%b2/