学术报告

  • 面向深度学习组件的漏洞挖掘

    人工智能软件系统的安全逐渐受到人们的重视,深度学习软件库存在的缺陷可能威胁到框架之上的模型和系统,目前仍然缺少深度学习软件库测试的系统方法。面对深度学习安全领域,针对深度学习软件库的漏洞方法存在的测试预期如何选取的问题,本次汇报分享了通过两两比较不同框架下模型输出差异的差分测试方法,方法对于分类任务和回归任务分别提出了各自的距离度量,来衡量不同框架输出差异的…

    2021 年 12 月 12 日 564 0
  • 利用差分隐私噪声扰动的单词替换方法

    在机器学习(ML)和人工智能(AI)时代,保护隐私的数据分析至关重要,在这个时代,一个可用性强的数据集可以提供比优化算法更高的收益。然而现有机制无法提供足够的隐私保障阻碍了自然语言处理(NLP)领域的发展,所以对敏感数据的计算和脱敏处理是近年来的一个重要目标。本报告介绍了数据脱敏的重要性和应用场景,简述了数据脱敏针对多元异构的输入数据所使用的方法,并重点描述…

    2021 年 12 月 7 日 484 0
  • 深度学习系统安全性测试及测试样本优先级排序

    深度学习在近十年取得了长足发展。由于其在复杂领域表现出优异的性能,逐渐被集成到软件体系中形成深度学习系统。这一方面推动了深度学习的发展,另一方面也对深度学习的安全性提出了巨大挑战:由于模型过拟合、欠拟合,训练数据不平衡等问题,模型在面对极端样本时往往会做出不正确的预测行为。在对预测正确性至关重要的领域,错误的预测行为将会造成灾难性后果,如何测试深度学习系统也…

    2021 年 11 月 29 日 763 0
  • Cache侧信道攻击与防御

    本报告讲述了cache侧信道攻击与防御基本分类及理论基础,给出了基于冲突和基于访问两类侧信道攻击和反制措施的基本概念,并对介绍基于映射随机化和基于隔离两类防御方法的文献进行了详细介绍。最后,报告总结和分析了cache侧信道攻击与防御方法的应用领域和现有方法的优劣势。

    2021 年 11 月 23 日 1.56K 0
  • 基于知识蒸馏的模型窃取方法

    随着大数据时代的来临和计算机算力的不断提升,机器学习模型迅速发展,成为计算机视觉、自然语言处理以及恶意软件检测等领域的研究热点。然而最近的研究发现,机器学习模型面临着严峻的安全威胁。本次学术报告介绍了机器学习模型存在的安全性问题,并以模型窃取为例,介绍了模型窃取的发展历史与主要的窃取方法,重点讲解了在未知目标模型训练数据的情况下,如何通过知识蒸馏实现模型窃取…

    2021 年 11 月 15 日 973 0
  • 基于汇编指令嵌入的漏洞同源性判别

    同源函数是由相同源码编译得到的程序函数。同源漏洞判别是漏洞挖掘的主要方法之一,用于发现已知漏洞的同源漏洞。本次报告主要汇报基于汇编指令嵌入的同源漏洞判别方法,介绍了汇编指令嵌入的基本方式,最后分析了方法的优势劣势与应用场景。

    2021 年 11 月 8 日 376 0
  • 匮乏资源命名实体识别

    NER作为自然语言处理中的一项基础任务,应用范围非常广泛。命名实体识别是许多任务的基本组成部分,并已被深度神经网络大大推进。目前NER只是在有限的领域和实体类型中取得了较好的成绩,但这些技术无法很好地迁移到其他特定领域中,如军事、医疗、生物、小语种语言等。因此,研究匮乏资源下的命名实体识别是非常有意义的。

    2021 年 11 月 2 日 454 0
  • 内部威胁检测方法

    近年来,内部(insider)攻击,包括组织信息系统破坏、信息盗窃、电子欺诈等,具有很强的隐蔽性和破坏性,对个人、企业和国家安全构成了巨大的威胁。因此,我们应该更加关注内部威胁的研究现状和演变趋势。本次报告讲述了内部威胁相关的知识概念,以及内部威胁检测的结构及主要理论,并且详细介绍了根据不同粒度等级提取用户行为实例和结合数据调整策略解决数据不平衡问题的两篇论…

    2021 年 10 月 27 日 578 0