随着大数据时代的来临和计算机算力的不断提升,机器学习模型迅速发展,成为计算机视觉、自然语言处理以及恶意软件检测等领域的研究热点。然而最近的研究发现,机器学习模型面临着严峻的安全威胁。本次学术报告介绍了机器学习模型存在的安全性问题,并以模型窃取为例,介绍了模型窃取的发展历史与主要的窃取方法,重点讲解了在未知目标模型训练数据的情况下,如何通过知识蒸馏实现模型窃取。实验结果表明,基于知识蒸馏方法所得到的替代模型在效果上明显优于其他方法。
基于知识蒸馏的模型窃取方法-丁杨原创文章,作者:BFS,如若转载,请注明出处:https://www.isclab.org.cn/2021/11/15/%e5%9f%ba%e4%ba%8e%e7%9f%a5%e8%af%86%e8%92%b8%e9%a6%8f%e7%9a%84%e6%a8%a1%e5%9e%8b%e7%aa%83%e5%8f%96%e6%96%b9%e6%b3%95/