Découvrez la gamme complète de produits de gouvernance de l'IA d'Enzai, conçus pour aider les organisations à gérer, surveiller et faire évoluer l'IA en toute confiance. Des processus d'intégration structurés et des inventaires centralisés d'IA aux évaluations automatisées et à la surveillance en temps réel, Enzai fournit les éléments nécessaires pour intégrer la gouvernance directement dans les flux de travail quotidiens de l'IA, sans freiner l'innovation.

Enzai

Podcast sur la gouvernance de l'IA

Podcast sur la Gouvernance de l'IA - Explicabilité des Modèles de Langage avec Umang Bhatt

Podcast sur la gouvernance de l'IA

Podcast sur la Gouvernance de l'IA - Explicabilité des Modèles de Langage avec Umang Bhatt

Podcast sur la gouvernance de l'IA

Podcast sur la Gouvernance de l'IA - Explicabilité des Modèles de Langage avec Umang Bhatt

Visuel de couverture du podcast sur la gouvernance de l’IA - Explicabilité des LLM avec Umang Bhatt
Invité du podcast : Dr Umang Bhatt, professeur adjoint, Centre for Data Science de NYU

Dr. Umang Bhatt explore les cadres techniques et organisationnels nécessaires pour atteindre la transparence et l'explicabilité dans les systèmes d'intelligence artificielle générative.

Belfast

Belfast

Invité de podcast

Invité de podcast

Dr Umang Bhatt

Dr Umang Bhatt

Position d'invité

Position d'invité

Professeur adjoint, Centre des Sciences de la Donnée de NYU

Professeur adjoint, Centre des Sciences de la Donnée de NYU

Par

Par

Var Shankar

Var Shankar

Sujets

Explicabilité des modèles LLM
Transparence des modèles
Interprétabilité
IA de confiance

Sujets

Écouter sur Spotify

Écouter sur YouTube

Écoutez sur Apple





Résumé

Dans cet épisode, nous nous entretenons avec le Dr Umang Bhatt, professeur adjoint à NYU et chercheur associé principal à l’Alan Turing Institute. Umang est un chercheur de renommée mondiale à l’intersection de l’explicabilité de l’IA et de l’interaction homme-machine.

La conversation porte sur le « comment » et le « pourquoi » de la transparence des modèles, en explorant des méthodes pratiques pour expliquer les résultats de l’IA générative à des utilisateurs finaux non techniques ainsi que l’importance de mettre en place des boucles de rétroaction robustes entre les parties prenantes internes.

Vous pouvez l’écouter sur Spotify ou Apple Music, ou regarder l’épisode ici sur YouTube.





Principaux enseignements





  • Distinguer l’interprétabilité destinée aux ingénieurs de l’explicabilité destinée aux utilisateurs finaux.

  • Des approches techniques pour encadrer les résultats de l’IA générative afin de garantir la sécurité.

  • Boucler la boucle : pourquoi les équipes conformité doivent communiquer avec les responsables du développement.

  • Tirer parti de l’IA pour une formation personnalisée tout en maintenant des normes éthiques élevées.

  • Perspectives mondiales : promouvoir des cadres d’IA responsable au-delà des États-Unis, de l’Union européenne et de la Chine.

Écouter sur Spotify

Écouter sur YouTube

Écoutez sur Apple

Découvrez davantage

Découvrez davantage

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Conformité Intégrée Dès la Conception

Conformité Intégrée Dès la Conception

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

Gouvernance de l'IA

Gouvernance de l'IA

Infrastructure

Infrastructure

conçu pour la Confiance.

conçu pour la Confiance.

Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.