Faux négatif

Lorsqu'un modèle d'IA prédit de manière incorrecte une classe négative pour une instance qui est réellement positive (erreur de type II).

Définition

Se produit lorsque le modèle passe à côté de cas réels, ce qui est dangereux en termes de fraude, de sécurité ou de diagnostic médical. Les faux négatifs peuvent mener à des menaces non détectées ou à des interventions manquées. La gouvernance doit surveiller les taux de rappel, établir des niveaux de risque acceptables et mettre en œuvre des contrôles secondaires ou une surveillance (par exemple, la détection d'anomalies) pour détecter les événements manqués.

Exemple concret

Dans une IA de dépistage du cancer, un taux de faux négatifs de 2 % signifie que 2 tumeurs sur 100 ne sont pas détectées. Un hôpital met en place un processus manuel de double lecture pour les scans à faible niveau de confiance et abaisse le seuil de décision du modèle, en réduisant les faux négatifs à 1 % au détriment d'une légère augmentation des faux positifs, puis suit les résultats des patients pour valider l'efficacité de l'ajustement.