L'humain au cœur de la boucle

Impliquer le jugement humain dans les processus d'IA (formation, validation, révision des décisions) pour améliorer la précision et la responsabilité.

Définition

Une approche hybride dans laquelle les humains augmentent les flux de travail de l'IA en fournissant des étiquettes, en vérifiant des prédictions peu fiables ou en annulant les décisions du modèle. HITL veille à ce que les situations extrêmes, à haut risque ou nouvelles reçoivent l'attention d'experts. Une gouvernance efficace fixe des seuils d'intervention humaine, suit les comparaisons entre les performances de l'IA humaine et empêche les biais humains de compromettre les gains d'automatisation.

Exemple concret

L'IA d'un diagnostic médical signale les scans dont la fiabilité du modèle est inférieure à 80 % pour une évaluation par un radiologue (HITL). En six mois, 95 % des cas peu fiables ont été correctement classés par les humains, et ces étiquettes sont intégrées au réentraînement du modèle, améliorant ainsi l'étalonnage de confiance et réduisant les taux d'erreur globaux.