Une IA fiable
Les systèmes d'IA sont conçus et exploités de manière éthique, fiable, sûre et conforme aux valeurs humaines et aux normes sociétales.
Définition
Comprend la robustesse technique, l'équité, la transparence, la confidentialité et la supervision humaine. Des programmes d'IA fiables définissent des critères mesurables pour chaque dimension (par exemple, des seuils de biais, des garanties de disponibilité), les intègrent dans les pipelines de développement (analyses d'impact, audits) et suivent les KPI éthiques dans les tableaux de bord de gouvernance. L'engagement continu des parties prenantes, les audits externes et la publication de rapports de transparence renforcent la fiabilité au fil du temps.
Exemple concret
Un gouvernement utilise un cadre de confiance pour son IA en matière d'allocations de chômage : il exige des évaluations éthiques formelles, publie un tableau de bord transparent contenant des erreurs et des biais dans les modèles, impose une intervention humaine pour les dérogations d'éligibilité et commande des audits annuels par des tiers, garantissant ainsi la fiabilité du système pour les citoyens et les régulateurs.