説明可能性と解釈可能性
どちらもAIの意思決定を理解できるようにすることを目的としていますが、説明可能性は意思決定の背後にある理由に焦点を当て、解釈可能性はモデルの内部メカニクスの透明性に関係します。
Definition
解釈可能性:単純なモデル (線形回帰) によく見られるように、内部モデルの構成要素 (重み、特徴) がどのように結果にマッピングされるかを明確にする。説明性:ブラックボックスも含め、あらゆるモデルについて、人間にわかりやすい正当化 (決定が下された理由) を事後から生成します。ガバナンスには、可能な場合は解釈可能なモデルを、そうでない場合は説明可能なツールという、適切なバランスを選択する必要があります。
Real-World Example
銀行がクレジット・スコアリングにロジスティック回帰モデルを選択するのは、その解釈しやすさ(係数は特徴への影響を直接示す)からです。画像ベースの不正検知器 (ニューラルネット) には、説明可能性 (顕著性マップ) を採用しています。モデル自体は本質的に解釈可能ではないからです。