学术报告
-
深度学习系统安全性测试及测试样本优先级排序
深度学习在近十年取得了长足发展。由于其在复杂领域表现出优异的性能,逐渐被集成到软件体系中形成深度学习系统。这一方面推动了深度学习的发展,另一方面也对深度学习的安全性提出了巨大挑战:由于模型过拟合、欠拟合,训练数据不平衡等问题,模型在面对极端样本时往往会做出不正确的预测行为。在对预测正确性至关重要的领域,错误的预测行为将会造成灾难性后果,如何测试深度学习系统也…
-
Cache侧信道攻击与防御
本报告讲述了cache侧信道攻击与防御基本分类及理论基础,给出了基于冲突和基于访问两类侧信道攻击和反制措施的基本概念,并对介绍基于映射随机化和基于隔离两类防御方法的文献进行了详细介绍。最后,报告总结和分析了cache侧信道攻击与防御方法的应用领域和现有方法的优劣势。
-
基于知识蒸馏的模型窃取方法
随着大数据时代的来临和计算机算力的不断提升,机器学习模型迅速发展,成为计算机视觉、自然语言处理以及恶意软件检测等领域的研究热点。然而最近的研究发现,机器学习模型面临着严峻的安全威胁。本次学术报告介绍了机器学习模型存在的安全性问题,并以模型窃取为例,介绍了模型窃取的发展历史与主要的窃取方法,重点讲解了在未知目标模型训练数据的情况下,如何通过知识蒸馏实现模型窃取…
-
基于汇编指令嵌入的漏洞同源性判别
同源函数是由相同源码编译得到的程序函数。同源漏洞判别是漏洞挖掘的主要方法之一,用于发现已知漏洞的同源漏洞。本次报告主要汇报基于汇编指令嵌入的同源漏洞判别方法,介绍了汇编指令嵌入的基本方式,最后分析了方法的优势劣势与应用场景。
-
匮乏资源命名实体识别
NER作为自然语言处理中的一项基础任务,应用范围非常广泛。命名实体识别是许多任务的基本组成部分,并已被深度神经网络大大推进。目前NER只是在有限的领域和实体类型中取得了较好的成绩,但这些技术无法很好地迁移到其他特定领域中,如军事、医疗、生物、小语种语言等。因此,研究匮乏资源下的命名实体识别是非常有意义的。
-
内部威胁检测方法
近年来,内部(insider)攻击,包括组织信息系统破坏、信息盗窃、电子欺诈等,具有很强的隐蔽性和破坏性,对个人、企业和国家安全构成了巨大的威胁。因此,我们应该更加关注内部威胁的研究现状和演变趋势。本次报告讲述了内部威胁相关的知识概念,以及内部威胁检测的结构及主要理论,并且详细介绍了根据不同粒度等级提取用户行为实例和结合数据调整策略解决数据不平衡问题的两篇论…
-
小样本实体关系抽取方法
信息抽取是自然语言处理中的重要组成部分,特别是在当今信息化社会中,从海量数据中抽取出有用的信息显得格外有意义。实体关系抽取是信息抽取的基础任务。现实生活中存在着长尾分布的问题,这导致样本量稀少的关系类型被识别的准确率很低。小样本学习的方法可以很好的解决这一问题。本次报告主要是针对小样本实体关系抽取任务进行介绍。
-
隐私保护的领域自适应迁移学习方法
本报告讲述了隐私计算技术体系的整体架构及主要理论,给出了迁移学习及领域自适应问题的基本概念,通过详细介绍隐私保护政策下最新的去中心化无监督领域自适应论文以及基于隐私保护的模型联邦个性化论文,启发思考深度学习全周期隐私安全及个性化调度问题。