Faux positif
Lorsqu'un modèle d'IA prédit de manière incorrecte une classe positive pour une instance qui est réellement négative (erreur de type I).
Définition
Scénario dans lequel le modèle signale les cas bénins comme étant malveillants, courants en matière de sécurité, de fraude ou de dépistage médical. Des taux élevés de faux positifs peuvent submerger les évaluateurs humains, éroder la confiance et entraîner des coûts inutiles. La gouvernance nécessite une surveillance précise, la définition de seuils acceptables et la mise en œuvre de déclencheurs d'évaluation humaine pour regrouper ou hiérarchiser les alertes de manière efficace.
Exemple concret
Une IA de détection des fraudes par carte de crédit a un taux de faux positifs de 10 %, ce qui signifie qu'une transaction légitime sur 10 est bloquée. La banque met en place une équipe d'intervention rapide chargée d'examiner les faux positifs en 5 minutes, ajuste les seuils du modèle afin de réduire le nombre de fausses alarmes pendant les heures de pointe des achats et communique les règles de pré-autorisation aux clients afin de minimiser les désagréments.