モデルの説明性
AIモデルの意思決定ロジックを利害関係者や監査人が理解できるようにするための手法と文書。
Definition
機能の重要性、決定ルール、または代替結果シナリオを明らかにする、固有の(解釈可能なモデル)と事後的(SHAP、LIME、反事実)手法の組み合わせ。ガバナンスには、モデルと対象者に適した説明可能な手法を選択し、ユーザーインターフェイスやコンプライアンスレポートに説明を組み込み、説明がモデルの動作を正確に反映していることを検証する必要があります。
Real-World Example
クレジットカード詐欺モデルでは、各アラートに「主な要因:通常とは異なる場所、通常とは異なる取引規模」というSHAPによる説明が提示されます。詐欺アナリストはこれらの説明を利用してアラートをより効果的に優先順位付けし、規制当局はコンプライアンス検査中にSHAPレポートを確認します。