bfs
-
LLM的强化学习
ChatGPT问世以来,LLM百花齐放,对我们的生活产生了巨大的影响。然而LLM生成的内容存在信息泄露、无中生有等诸多隐患。通过强化学习技术我们可以将生成内容与人类偏好对齐,控制LLM的生成方向。本次学术报告主要讲解了强化学习在LLM中应用的现状,然后在PPO-max算法中对RLHF流程进行分析,并在RL4F算法中拓展其应用场景,最后对强化学习在LLM中的未…
-
不规则多元时间序列预测研究
时序数据预测任务是时间序列处理领域中一项基本的任务,根据历史时间段数据序列预测未来一段时间的数据序列,广泛应用于天气预报、经济预测、医疗保健预测等领域。在复杂的现实世界中,时序数据可能出现多元化、不规则的现象。基于统计机器学习的时序数据预测方法在面向高维的多元时序数据预测效果受限,难以同时对多个时间变量进行建模。同时,由于采样频率和时间点不一致,不规则时序数…
-
基于深度学习的二进制函数相似性分析:深入探究两大主流研究方向
二进制函数相似性分析在1-Day漏洞检测、代码克隆检测、恶意软件检测、软件剽窃检测和自动软件修复等多个应用领域中具有广泛的应用。本次学术报告主要讲解了二进制函数相似性分析任务的研究现状和两大主流研究方向,以及两种目前最先进的单架构和跨架构二进制函数相似性检测方法。
-
偷走你的训练数据:模型反演攻击方法研究
通过模型反演攻击方法研究,验证了模型训练数据面临泄露风险的问题,并希望以此促进对应防御手段的发展。本次学术报告介绍了模型反演攻击方法的相关知识,并聚焦于两个经典的白盒和黑盒攻击方法。
-
FNN模型正确性测试及测试样本生成
FNN模型被广泛应用于自动驾驶、医疗诊断等安全关键的领域,因此需要测试模型的正确性,及时发现模型的缺陷并进行模型的修复与再训练。本次学术报告介绍了FNN模型正确性测试中遇到的两个关键问题和四种解决方法,并聚焦于两个最新的白盒与黑盒测试方法。
-
对抗性扰动下的后门防御方法
后门防御旨在使用神经元剪枝、知识蒸馏等手段消除模型中隐藏的后门,阻止攻击者使用触发器样本控制深度学习模型的输出。本次学术报告主要讲解了两种以对抗性扰动和后门攻击关系为基础的后门防御方法。
-
DNN中的理论可解释性
自DNN诞生起,人们就开始尝试对其解释。若要对DNN进行定量、严谨的解释,数学层面的理论构建是必要的。本次报告介绍了基于博弈论Shapley Value构建的DNN可解释性理论体系,跟随理论构建过程,讲解了概念定义的初衷、条件和性质,进而分析了证明和计算过程,并介绍了数学层面的可解释性在语义层面的应用。
-
大语言模型调研
针对大语言模型展开调研,介绍大语言模型发展背景和研究现状,通过讲解LLaMA2模型的预训练和微调步骤,全面讲解大语言模型的训练过程,随后对越狱攻击大语言模型的方法进行研究,通过讲解MASTERKEY算法,介绍了自动化生成越狱提示的方法,最后对大语言模型的未来发展分点解析。