概述
本文介绍一篇被CVPTW2020接受的论文,主要关于一种基于置信分数的视觉可解释性方法。本文的亮点在于:在CAM系列方法的基础上,首次提出了一种新的gradient-free的权重表达方式。
论文:
Score-CAM:Score-Weighted Visual Explanations for Convolutional Neural Networks
官方代码:https://github.com/haofanwang/Score-CAM
本文是由来自于卡内基梅隆大学、德州农工大学、武汉大学的研究人员共同提出的一种基于置信分数的视觉可解释性方法,目前论文被CVPRW 2020接收,代码已开源。
背景介绍
1.视觉可解释性
神经网络可解释性是指对于神经网络所做出的决策,进行合理的解释。这里解释可以是从数学理论层面进行的先验解释,比如对于激活函数的差异分析、模型的泛化能力分析,也可以是对于网络预测结果的后验解释,比如我们训练好的模型将一张图片分类为"猫",我们希望知道网络是通过什么因素或特征将它分类为"猫"这个类别的。本文关注的是后验解释,即解释已有模型的决策。而对于卷积神经网络,目前最常见的是通过可视化的方式来解释模型的决策(下文中可解释性与可视化将不再区分)。
2.主流的视觉可解释性方法
2.1 基于梯度的可解释性
最后
以上就是优美羽毛为你收集整理的首次摆脱对梯度的依赖,CMU等开源Score-CAM:基于置信分数的视觉可解释性背景介绍的全部内容,希望文章能够帮你解决首次摆脱对梯度的依赖,CMU等开源Score-CAM:基于置信分数的视觉可解释性背景介绍所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复