

Dr. Umang Bhatt explore les cadres techniques et organisationnels nécessaires pour atteindre la transparence et l'explicabilité dans les systèmes d'intelligence artificielle générative.
•
Sujets
Écouter sur Spotify
Écouter sur YouTube
Écoutez sur Apple
Résumé
Dans cet épisode, nous nous entretenons avec Dr. Umang Bhatt, professeur adjoint à NYU et chercheur associé senior à l’Alan Turing Institute. Umang est un chercheur de renommée mondiale à l’intersection de l’explicabilité de l’IA et de l’interaction homme-machine.
La conversation porte sur le « comment » et le « pourquoi » de la transparence des modèles, en explorant des méthodes pratiques pour expliquer les résultats de l’IA générative aux utilisateurs finaux non techniques et l’importance d’établir des boucles de rétroaction robustes entre les parties prenantes internes.
Vous pouvez l’écouter sur Spotify ou Apple Music, ou regarder l’épisode ici sur YouTube.
Points clés
Faire la distinction entre l’interprétabilité destinée aux ingénieurs et l’explicabilité destinée aux utilisateurs finaux.
Approches techniques pour restreindre les résultats de l’IA générative afin de garantir la sécurité.
Boucler la boucle : pourquoi les équipes conformité doivent communiquer avec les responsables du développement.
Tirer parti de l’IA pour une éducation personnalisée tout en maintenant des normes éthiques élevées.
Perspectives mondiales : promouvoir des cadres d’IA responsables au-delà des États-Unis, de l’UE et de la Chine.
Écouter sur Spotify
Écouter sur YouTube
Écoutez sur Apple
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

