1. 信息系统及安全对抗实验中心首页
  2. 学术报告

图神经网络的反事实解释方法

图神经网络模型的可解释性对于建立用户与决策模型之间的信任关系至关重要,为了安全、可信地部署图神经网络模型,需要提高图神经网络模型的可解释性和透明性。本次报告为大家介绍图神经网络反事实解释的基本概念和前沿方法(CFF和GCFExplainer)

图神经网络的反事实解释方法-夏志豪

原创文章,作者:BFS,如若转载,请注明出处:https://www.isclab.org.cn/2024/06/03/%e5%9b%be%e7%a5%9e%e7%bb%8f%e7%bd%91%e7%bb%9c%e7%9a%84%e5%8f%8d%e4%ba%8b%e5%ae%9e%e8%a7%a3%e9%87%8a%e6%96%b9%e6%b3%95/