Grand modèle de langage
Un modèle d'apprentissage profond basé sur de vastes corpus de textes qui peut effectuer des tâches telles que la génération, la traduction et la synthèse de textes, nécessitant souvent une gouvernance en matière de biais et d'abus.
Définition
Architectures basées sur des transformateurs (par exemple GPT, BERT) avec des centaines de millions à des milliards de paramètres, pré-entraînées sur diverses données à l'échelle d'Internet. Ils excellent dans l'apprentissage par étapes, mais ils peuvent propager des préjugés sociétaux ou générer du contenu préjudiciable. La gouvernance doit inclure des audits de partialité, une surveillance de l'utilisation, un filtrage du contenu et des politiques claires entre les invites autorisées et interdites afin de limiter les abus.
Exemple concret
Une équipe marketing utilise des modèles de type GPT pour rédiger le texte publicitaire. Avant le déploiement, ils vérifient les biais sur le texte généré (par exemple, le langage genré), appliquent des filtres anti-blasphème et mettent en place des quotas d'utilisation pour empêcher les fuites de données confidentielles, garantissant ainsi que le modèle stimule la créativité sans introduire de risque juridique ou de réputation.