Faux négatif
Lorsqu'un modèle d'IA prédit incorrectement une classe négative pour un cas qui est en réalité positif (Erreur de Type II).
Se produit lorsque le modèle ne détecte pas des cas réels — un risque majeur dans les domaines de la fraude, de la sécurité ou du diagnostic médical. Les faux négatifs peuvent entraîner des menaces non détectées ou des interventions manquées. La gouvernance doit surveiller les taux de rappel, définir des niveaux de risque acceptables et mettre en œuvre des contrôles secondaires ou une surveillance (par exemple, la détection d’anomalies) afin d’identifier les événements non détectés.
Dans une IA de dépistage du cancer, un taux de faux négatifs de 2 % signifie que 2 tumeurs sur 100 ne sont pas détectées. Un hôpital met en place un processus de double lecture manuelle pour les examens à faible niveau de confiance et abaisse le seuil de décision du modèle, réduisant les faux négatifs à 1 % au prix d’une légère augmentation des faux positifs, puis suit les résultats des patients afin de valider l’efficacité de cet ajustement.

Nous vous aidons à trouver des réponses
Quel problème Enzai résout-il ?
Enzai fournit une infrastructure de niveau entreprise pour gérer les risques et la conformité de l'IA. Il crée un système centralisé où les systèmes d'IA, les modèles, les ensembles de données et les décisions de gouvernance sont documentés, évalués et audités.
Pour qui Enzai est-il conçu ?
En quoi Enzai se distingue-t-il des autres outils de gouvernance ?
Pouvons-nous commencer si nous n'avons pas de processus de gouvernance de l'IA existant ?
La gouvernance de l'IA freine-t-elle l'innovation ?
Comment Enzai s'aligne-t-il avec l'évolution des réglementations en matière d'IA ?
Recherche, perspectives et mises à jour
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.
