ML:机器学习模型可解释性之explainability和interpretability区别的简介、区别解读、案例理解之详细攻略
目录
机器学习模型可解释性之explainability和interpretability区别的简介、区别解读、案例理解
1、《explainability VS interpretability》翻译
2、explainability和interpretability阶段性总结
One of the issues that hinders the establishment of common grounds is the interchangeable misuse of interpretability and explainability in the literature. There are notable differences among these concepts. To begin with, interpretability refers to a passive characteristic of a model referring to the level at which a given model makes sense for a human observer. This feature is also expressed as transparency. By contrast, explainability can be viewed as an active characteristic of a model, denoting any action or procedure taken by a model with the intent of clarifying or detailing its internal functions. To summarize the most commonly used nomenclature, in this section we clarify the distinction and similarities among terms often used in the ethical AI and XAI communities. | 其中一个阻碍建立共识的问题是interpretability和explainability在文献中的互换滥用。这些概念之间存在着显著的差异。。 首先,interpretability是指模型的被动特征,指的是给定模型达到目标受众能够理解的水平。这个特性也表示为透明度。相比之下,explainability可以被视为模型的一个主动特征/活跃特征,表示模型为阐明或详细说明其内部功能而采取的任何行动或过程。 为了总结最常用的术语,在本节中,我们阐明了伦理道德 AI 和 XAI 社区中常用术语之间的区别和相似之处。 |
• interpretability: it is defined as the ability to explain or to provide the meaning in understandable terms to a human. • explainability: explainability is associated with the notion of explanation as an interface between humans and a decision maker that is, at the same time, both an accurate proxy of the decision maker and comprehensible to humans [17]. | • interpretability:它被定义为采用可理解的术语向人类解释或提供意义的能力。 • explainability:explainability与解释的概念相关联,解释是人类与决策者之间的接口;同时,它既是决策者的准确代表,又是人类可以理解的。 |
只可意会不可言传,就可以理解为可理解但不可解释
英文 | interpretability | explainability |
中文 | 可理解性 事前可解读,可解读性 | 可解释性 事后去解释 |
理解 | 能够辨认机制,而不必知道原因; 大约是在系统中,可以观察到因果关系的程度; | 从字面上,能够解释发生的事情; 可以用人类术语,能够解释机器或深度学习系统的内部机制的程度。 |
在输入或算法参数发生变化的情况下,能够预测将要发生的情况的程度。 表示是否一个模型能够解释因果关系,这是一个更加抽象、宏伟的先验概念(也就是在事情发生之前我就知道)。 “有因必有果,你的报应就是我。” | 可以理解为具体的某一个模型中,如何从数据输入(基于模型结构和参数)得到数据输出的,这是一个更加形象、具体的后验概念(也就是事情发生之后,我想着怎么去解释,让别人理解我)。 “事后诸葛亮,事前猪一样。” | |
案例理解 | 假设您正在学校进行科学实验。就您所看到的所做的事情而言,该实验可能是interpretable; 但是,只有当你深入了解所发生的事情背后的化学反应时,该实验才能真正地得到explainable。 从客观的视角出发,Interpretability好于Explainability。 | |
思考 | 使用了与模型无关的解释方法,比如shap,那所解释出的关系,能被称作因果关系吗? 模型无关的(Model-agnostic)的解释方法的初衷,就是为了模仿(mimic)真实模型的input-output对应关系(较浅层次的解释,类似于explain),以及对于其中某些感兴趣的input,在模型中经历哪一些具体的加工过程(这个是更深层次的解释,但还是类似于explain)。 总而言之,模型无关的解释方法主要在于模仿/说明真实模型的机制,它们揭示出来的这种关系,只能简单地称为“输入输出对映关系”,而不能说一定是“因果关系”。 |
网站声明:如果转载,请联系本站管理员。否则一切后果自行承担。
加入交流群
请使用微信扫一扫!