

Dr. Umang Bhatt explore les cadres techniques et organisationnels nécessaires pour atteindre la transparence et l'explicabilité dans les systèmes d'intelligence artificielle générative.
•
Sujets
Écouter sur Spotify
Écouter sur YouTube
Écoutez sur Apple
Résumé
Dans cet épisode, nous nous entretenons avec le Dr Umang Bhatt, professeur adjoint à NYU et chercheur associé principal à l’Alan Turing Institute. Umang est un chercheur de renommée mondiale à l’intersection de l’explicabilité de l’IA et de l’interaction homme-machine.
La conversation porte sur le « comment » et le « pourquoi » de la transparence des modèles, en explorant des méthodes pratiques pour expliquer les résultats de l’IA générative à des utilisateurs finaux non techniques ainsi que l’importance de mettre en place des boucles de rétroaction robustes entre les parties prenantes internes.
Vous pouvez l’écouter sur Spotify ou Apple Music, ou regarder l’épisode ici sur YouTube.
Principaux enseignements
Distinguer l’interprétabilité destinée aux ingénieurs de l’explicabilité destinée aux utilisateurs finaux.
Des approches techniques pour encadrer les résultats de l’IA générative afin de garantir la sécurité.
Boucler la boucle : pourquoi les équipes conformité doivent communiquer avec les responsables du développement.
Tirer parti de l’IA pour une formation personnalisée tout en maintenant des normes éthiques élevées.
Perspectives mondiales : promouvoir des cadres d’IA responsable au-delà des États-Unis, de l’Union européenne et de la Chine.
Écouter sur Spotify
Écouter sur YouTube
Écoutez sur Apple
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

