不透明度
AIモデルがどのように意思決定や予測にたどり着くのかが透明性に欠けていると、信頼と規制遵守に課題が生じます。
Definition
内部表現や決定ロジックにアクセスできない、または人間が解釈するには複雑すぎる「ブラックボックス」モデルを指します。説明のしやすさが求められるハイステークな領域では、不透明性が問題になります。ガバナンスでは、不透明なモデルをリスクの低いタスクに限定したり、不透明性の信頼やコンプライアンスのリスクを軽減するために、外部の説明ツールや人間によるレビュープロセスとの組み合わせを義務付けたりすることがあります。
Real-World Example
金融規制当局は、説明のつかないディープアンサンブル詐欺モデルの使用を禁止しています。そのため、銀行はこのような不透明なモデルを内部分析に限定し、顧客向けの不正警告にはLIMEの説明を含むよりシンプルで解釈可能なモデルを採用し、透明性要件の遵守を確保しています。