学术报告

  • 小样本实体关系抽取方法

    信息抽取是自然语言处理中的重要组成部分,特别是在当今信息化社会中,从海量数据中抽取出有用的信息显得格外有意义。实体关系抽取是信息抽取的基础任务。现实生活中存在着长尾分布的问题,这导致样本量稀少的关系类型被识别的准确率很低。小样本学习的方法可以很好的解决这一问题。本次报告主要是针对小样本实体关系抽取任务进行介绍。

    2021 年 10 月 21 日 1.04K 0
  • 隐私保护的领域自适应迁移学习方法

    本报告讲述了隐私计算技术体系的整体架构及主要理论,给出了迁移学习及领域自适应问题的基本概念,通过详细介绍隐私保护政策下最新的去中心化无监督领域自适应论文以及基于隐私保护的模型联邦个性化论文,启发思考深度学习全周期隐私安全及个性化调度问题。

    2021 年 10 月 11 日 478 0
  • 联邦学习的参数更新方法

    联邦学习在为解决数据交换时的信息隐私安全及数据孤岛问题时被提出,现广泛应用的为横向联邦与纵向联邦,本次学术报告介绍了联邦学习的基本思路,并基于横向联邦说明了两种经典的参数更新和合并方法,解决联邦学习中遇到的一些数据异构、设备异构、NonIID等常见问题。最后,报告总结了联邦学习的主要应用领域,以及未来联邦学习的发展演进的一些思路。

    2021 年 10 月 11 日 596 0
  • 日志数据的深度学习异常检测方法

    本报告介绍了利用系统的日志数据进行异常检测所面临的挑战,给出了日志数据分类、用途、实例等基本概念和基础知识,并对日志数据的解析处理和利用日志数据进行异常检测的高水平文献算法进行了详细讲解。最后,报告总结了日志数据异常检测的主要应用领域,以及未来的技术演进方向等。

    2021 年 9 月 23 日 478 0
  • 鲁棒性认证方法

    随着对抗样本的危险性日益凸显,提高模型的鲁棒性成为研究的主要方向之一,然而,在评估鲁棒性方面还没有统一的标准,使得不同的防御方法之间对比存在很大的困难。

    2021 年 9 月 13 日 732 0
  • 特定安全领域中的对抗样本防御方法

    以深度学习为代表的人工智能技术正在悄然改变人们的生产生活方式,但深度学习模型的部署也带来了一定的安全隐患。对抗样本攻击能使深度学习模型系统进行误判,对各个人工智能应用领域造成了严重的安全威胁。本文从人工智能应用的特定安全领域出发,如入侵检测领域和恶意软件检测领域,介绍了对抗样本攻击的生成原因,安全领域中对抗样本与图像领域的区别以及安全领域中的对抗样本防御方法…

    2021 年 8 月 31 日 615 0
  • 多标签学习

    每天都有大量的数据生成,这导致人们越来越需要新的努力来应对大数据给多标签学习带来的巨大挑战。例如,极端多标签分类是一个活跃且快速发展的研究领域,它处理的分类任务具有极其大量的类别或标签;利用具有有限监督的海量数据来建立多标签分类模型对于实际应用等变得有价值。因此,本次学术报告致力于介绍多标签学习的前沿研究方向,以思考该领域未来的发展趋势和研究热点。

    2021 年 8 月 22 日 504 0
  • 机器学习模型后门攻击检测

    本次学术报告简要介绍了人工智能系统面临的各种安全威胁,通过将对抗样本与后门攻击进行多方面比较,从而引入了机器学习模型后门攻击的原理和检测方法,以及后门攻击技术的应用领域。

    2021 年 8 月 22 日 861 0