Responsabilité de l'IA

L'obligation des développeurs et des opérateurs de systèmes d'IA de s'assurer que leurs systèmes sont conçus et utilisés de manière responsable, dans le respect des normes éthiques et des exigences légales.

Définition

Une attribution officielle de responsabilité pour chaque étape d'un système d'IA, de la collecte des données au déploiement et à la mise hors service. La responsabilisation consiste à nommer les rôles (par exemple, propriétaire du modèle, responsable des données, responsable de la conformité), à définir des voies d'escalade claires en cas d'échec et à intégrer des processus de révision de sorte que chaque fois qu'une décision d'IA cause un préjudice ou une violation légale, il existe une piste documentée indiquant qui a enquêté, qui a remédié et comment l'organisation a empêché que cela ne se reproduise.

Exemple concret

L'IA automatisée de notation de crédit d'une grande banque qualifie à tort un client comme présentant un risque élevé. L'équipe de gouvernance de l'IA attribue l'erreur à un ensemble de données sous-représentatif, convoque un groupe de travail sur les « causes profondes », réentraîne le modèle avec des données équilibrées, présente des excuses au client et met à jour la politique de sorte que toute anomalie similaire déclenche un examen humain immédiat, démontrant ainsi une responsabilité claire et des mesures correctives.