説明可能な機械学習
機械学習モデルは、予測と決定について明確でわかりやすい説明を提供するように設計されています。
Definition
本質的に解釈可能なアルゴリズム (デシジョンツリー、ルールリスト) を選択するか、正確さと透明性のバランスをとるハイブリッドモデルを構築する必要があります。ガバナンスのベストプラクティスには、モデルロジックの文書化、ユーザーによる説明の明確さのテスト、説明可能な代替手段が存在する場合は不透明なモデルをリスクの低いアプリケーションに限定することが含まれます。
Real-World Example
ある住宅ローンの貸し手は、最初の融資承認に説明可能なデシジョンツリーモデルを使用します。各意思決定経路はわかりやすい言葉のルール(「収入が5万ドルを超え、クレジットスコアが700を超える場合は承認する」など)に変換されるため、融資担当者と監査人はすべての承認を人間が読める基準に直接従うことができます。