Généralisation
Capacité d'un modèle d'IA à bien fonctionner sur de nouvelles données invisibles en capturant des modèles sous-jacents plutôt que de mémoriser des exemples d'entraînement.
Définition
La propriété principale qui distingue les modèles efficaces des modèles suradaptés. La généralisation est réalisée grâce à une capacité de modèle appropriée, à des techniques de régularisation (abandon, perte de poids), à une augmentation des données et à une validation robuste (validation croisée, ensembles de résistance). La gouvernance implique la surveillance des écarts de généralisation (erreur d'entraînement par rapport à l'erreur de validation), la définition de seuils acceptables et la reconversion des modèles lorsque les performances des données de production divergent considérablement des résultats des tests.
Exemple concret
Une équipe de classification d'images constate que la précision d'entraînement de son modèle est de 99 %, mais que la précision des tests est de 75 %. Ils introduisent une augmentation des données (rotations, instabilité des couleurs), appliquent des couches de suppression et réentraînent, atteignant une précision d'entraînement et de test équilibrée d'environ 90 %, démontrant ainsi une meilleure généralisation avant le déploiement.