可解释性对于建立用户与决策模型之间的信任关系至关重要,提高机器学习模型的可解释性和透明性是机器学习在现实任务中进一步发展和应用的关键。本次报告带大家了解机器学习常用的可解释方法的基本原理和应用(规则提取、LIME和SHAP)。
机器学习常用的可解释方法-慕星星原创文章,作者:BFS,如若转载,请注明出处:https://www.isclab.org.cn/2020/10/25/%e6%9c%ba%e5%99%a8%e5%ad%a6%e4%b9%a0%e5%b8%b8%e7%94%a8%e7%9a%84%e5%8f%af%e8%a7%a3%e9%87%8a%e6%96%b9%e6%b3%95/