bfs

  • 多元时间序列异常检测方法研究

    异常检测是时间序列分析中必不可少的任务,判断数据是否符合正态数据分布,不符合的部分称为异常。及时发出异常可以使系统维护人员主动进行维护,从而在欺诈检测、入侵检测和能源管理等实际应用中实现可持续性和安全性

    2024 年 12 月 19 日 27 0
  • 大语言模型的越狱攻击

    主要探讨大语言模型的越狱攻击,阐述其研究背景、意义,历史与现状。而后涉及 EnDec和 ActorAttack 算法讲解,包含算法简介,以及算法的具体流程,通过实验对比展示其性能,总结了各自算法的特点、贡献与不足,展望未来发展方向。

    2024 年 12 月 19 日 25 0
  • 面向深度学习模型的鲁棒性解超方法研究

    深度学习模型的鲁棒性解释方法旨在提升模型在面对输入扰动或对抗攻击时的解释一致性,是增强模型可信性和应用价值的重要研究方向。本次学术报告介绍了该领域的研究背景与发展现状,重点阐述了MeTFA和RobustAGA等核心算法的原理,并展望了未来的研究方向与应用前景。

    2024 年 12 月 19 日 16 0
  • 深度学习语音情绪识别技术

    语音情绪识别在如今的人机交互中具有重要作用,机器可以通过语音情绪识别对用户的情绪变化做出恰当反应,提供更具个性化的服务。深度学习作为机器学习中的一个重要分支,在语音情绪识别中也有广泛的使用。本次学习报告的主要讲解了两种深度学习的语音情绪识别的方法,并指明了现有的缺陷和未来发展方向。

    2024 年 11 月 27 日 67 0
  • 基于大语言模型的事件根因分析

    主要探讨基于大语言模型的事件根因分析。阐述其研究背景、意义,涉及 RCACopilot 和 RCAgent 算法,包含数据收集、处理、输出,以及算法的具体流程等。通过实验对比展示其性能,总结了各自算法的特点、贡献与不足,展望了未来发展方向

    2024 年 11 月 27 日 66 0
  • 文本分类硬标签黑盒模型的对抗样本生成方法研究

    研究文本分类硬标签黑盒模型的对抗样本生成方法,分析模型的潜在安全风险,为加强模型鲁棒性提供方向。本次学习报告讲解了文本分类模型对抗样本生成方法的总体状况,并介绍了关于文本分类硬标签黑盒模型对抗样本生成的最新方法,指明了现有的缺陷和未来发展方向。

    2024 年 11 月 27 日 33 0
  • 针对文本嵌入模型的模型反演攻击方法研究

    研究针对文本嵌入模型的模型反演攻击,揭示了自然语言处理领域面临的隐私泄露风险。本次学术报告介绍了关于文本嵌入模型模型反演攻击的最新方法,并指明了现有的缺陷和未来发展方向。

    2024 年 11 月 5 日 127 0
  • 人工智能模型的谈忘学习方法

    遗忘学习被称为机器遗忘或取消学习,是指机器学习或深度学习系统中先前获取的知识随着时间推移而退化的现象。本次学习报告的主要讲解了两种人工智能模型的遗忘学习方法,遗忘训练数据中的特定样本或者特定类别样本,保护个人隐私。

    2024 年 11 月 5 日 82 0