Surajustement
Problème de modélisation dans lequel un système d'IA apprend le bruit ou les particularités des données d'entraînement, réduisant ainsi sa capacité à généraliser à de nouvelles données invisibles.
Définition
Se produit lorsque la complexité du modèle (trop de paramètres) permet de mémoriser des exemples d'apprentissage plutôt que d'apprendre des modèles généraux. Les symptômes incluent une précision d'entraînement élevée mais de faibles performances de validation/test. Les pratiques de gouvernance impliquent une validation croisée régulière, la surveillance de la divergence entre les pertes entre le train et la validation, l'application de techniques de régularisation (abandon, perte de poids) et la définition d'écarts de généralisation acceptables avant d'autoriser les modèles à entrer en production.
Exemple concret
Une IA autonome affiche une précision de détection de 99 % en simulation, mais de seulement 70 % lors d'essais routiers réels. Les ingénieurs diagnostiquent le surajustement, ajoutent des couches d'élimination, améliorent l'entraînement en fonction de conditions d'éclairage variées et se recyclent, atteignant une précision équilibrée de 90 % lors de tests simulés et réels avant le déploiement.