ヒューマン・イン・ザ・ループ
正確性と説明責任を向上させるために、AIプロセス(トレーニング、検証、意思決定レビュー)に人間の判断を取り入れます。
Definition
ラベルを提供したり、信頼性の低い予測を検証したり、モデルの決定を無効にしたりするなど、人間がAIワークフローを拡張するハイブリッドアプローチです。HITLは、エッジケース、ハイリスク、または斬新な状況が専門家の注意を引くことを保証します。効果的なガバナンスは、人間による介入の基準を設定し、人間と人工知能のパフォーマンス比較を追跡し、人間の偏見が自動化の成果を損なうのを防ぎます。
Real-World Example
医療診断AIは、モデル信頼度が 80% 未満のスキャンにフラグを立て、放射線科医によるレビュー(HITL)を行います。6 か月以上にわたって、信頼度の低いケースの 95% が人間によって正しく分類され、それらのラベルがモデルの再トレーニングにフィードバックされ、信頼度のキャリブレーションが改善され、全体的なエラー率が低下しました。