Surveillance après le déploiement

Observation continue du comportement et de l'environnement des systèmes d'IA après leur publication afin de détecter les dégradations, les dérives ou les violations de conformité.

Définition

Étend la surveillance des modèles pour inclure les signaux de gouvernance (incidents de confidentialité, journaux de violations des politiques, tendances en matière de mesures éthiques) ainsi que les mesures de performance et de sécurité. Les cadres de surveillance post-déploiement intègrent diverses données télémétriques, effectuent des audits périodiques (contrôles d'équité, analyses d'anomalies, par exemple) et déclenchent des flux de gouvernance lorsque les seuils sont franchis, garantissant ainsi la mise en œuvre rapide de mesures correctives (reconversion, annulation, notification légale).

Exemple concret

Le détecteur de discours haineux d'une plateforme de réseau social envoie tous les contenus signalés comme présentant un risque élevé ou non classés par l'IA dans une file d'attente des modérateurs. Après le déploiement, le système surveille les taux de faux positifs tous les mois ; si le taux de faux positifs dépasse 2 %, le tableau de bord de gouvernance ouvre un ticket d'enquête pour la reconversion du modèle et l'ajustement des règles.