

Dr. Umang Bhatt explore les cadres techniques et organisationnels nécessaires pour atteindre la transparence et l'explicabilité dans les systèmes d'intelligence artificielle générative.
•
Sujets
Écouter sur Spotify
Écouter sur YouTube
Écoutez sur Apple
Résumé
Dans cet épisode, nous nous entretenons avec le Dr Umang Bhatt, professeur adjoint à NYU et chercheur principal à l'Alan Turing Institute. Umang est un chercheur de renommée mondiale à l'intersection de l'explicabilité de l'IA et de l'interaction homme-machine.
La conversation se concentre sur le "comment" et le "pourquoi" de la transparence des modèles, explorant des méthodes pratiques pour expliquer les résultats de l'IA générative aux utilisateurs finaux non techniques et l'importance d'établir des boucles de rétroaction robustes entre les parties prenantes internes.
Vous pouvez écouter sur Spotify ou Apple Music ou regarder l'épisode ici sur YouTube.
Points clés
Differenciation entre l'interprétabilité pour les ingénieurs et l'explicabilité pour les utilisateurs finaux.
Approches techniques pour restreindre les sorties de l'IA générative afin d'assurer la sécurité.
Clore la boucle : Pourquoi les équipes de conformité doivent communiquer avec les chefs de développement.
Exploiter l'IA pour une éducation personnalisée tout en maintenant des normes éthiques élevées.
Perspectives globales : Promouvoir des cadres d'IA responsables au-delà des États-Unis, de l'UE et de la Chine.
Écouter sur Spotify
Écouter sur YouTube
Écoutez sur Apple
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.
