基于可视化的局部解释

综述阅读[1]王鹏达. 面向分类任务的深度神经网络可解释性研究[D].大连理工大学,2021.DOI:10.26991/d.cnki.gdllu.2021.000185. [2]司念文. 面向图像识别的深度学习可视化解释技术研究[D].战略支援部队信息工程大学,2021.DOI:10.27188/d.cnki.gzjxu.2021.000012. [3]庞焱萌. 基于可解释CNN的图像分类方法[D].西安电子科技大学,2020.DOI:10.27389/d.cnki.gxadu.2020.001163. 关于目标检测这方面的可解释研究,由于分类问题是个大类,语义分割、目标检测、自然语言处理等任务的特征提取模块都是深度神经网络,因此研究分类问题的可解释性是基础。 一个关于可解释方法的工具箱 事前可解释算法: ICNN 每一个神经元加入一个损失函数,其特征图将表示一个具体的物体部分[14] ada-shen/ICNN: A pytorch implementation of interpretable convolutional neural network. (github.com) hard attention:模型会给出其做出预测所关注的图像区域[15] parsatorb/PyTorch-Saccader: PyTorch implementation of Saccader: Improving Accuracy of Hard Attention Models for Vision (github.com) 基于概念的分类模型:对于一次预测,模型将展示输入图像与每个概念的相关性[17] AmanDaVinci/SENN: Self-Explaining Neural Networks (github.com) 事后可解释算法[^ 对完成训练的模型在运用中得到的决策进行解释]     Read more
NENEIIII's avatar
NENEIIII Mar 21, 2022