Robustesse

La capacité d'un système d'IA à maintenir des performances fiables dans diverses conditions difficiles ou contradictoires.

Définition

La propriété de résister aux perturbations d'entrée, aux changements de distribution ou aux vecteurs d'attaque (exemples contradictoires). Obtenu grâce à un entraînement contradictoire, à des méthodes d'ensemble ou à une optimisation robuste. La gouvernance nécessite de spécifier des exigences de robustesse pour chaque cas d'utilisation, de réaliser des tests selon des scénarios de stress définis et d'intégrer des contrôles de robustesse dans les processus de validation et de surveillance afin de garantir la fiabilité des systèmes dans des conditions réelles.

Exemple concret

Un vendeur de voitures autonomes soumet son système de vision à des attaques simulées de brouillard, d'éblouissement et de patch antagonistes. Ils intègrent ces exemples contradictoires dans l'ensemble de formation et appliquent une politique de gouvernance selon laquelle les performances dans chaque condition doivent atteindre des taux de détection minimaux avant le déploiement sur les autoroutes.