説明可能な人工知能 (XAI)

AIシステムは、意思決定と行動を人間が理解できる形で正当化できるように設計されており、透明性と信頼性を高めます。

Definition

利害関係者(エンドユーザー、規制当局、開発者)のニーズに合わせて、明確でコンテキストに適した説明(特徴の帰属、ルール抽出、反事実シナリオ)を生成する手法とフレームワーク。XAI ガバナンスには、説明形式の標準化、説明の忠実性の検証、およびそれらを正しく解釈するためのユーザートレーニングが含まれます。

Real-World Example

あるクレジットカード会社は、詐欺アラートにLIMEの説明を組み込むことでXAIを使用しています。AIが取引に疑わしいとフラグを付けると、「異常な販売者の場所」と「高取引金額」が主な原因であることがユーザーに表示され、より迅速な検証が可能になり、誤検知によるエスカレーションが 30% 削減されます。