Avec l'essor de l'IA cognitive au sein des organisations, une nouvelle administration à Washington DC, et des directives plus claires concernant la loi sur l'IA de l'UE, l'année 2025 s'annonce passionnante.
•
•
11 minutes de lecture
Sujets
Participants du panel :
Jamaur Bronner, cofondateur, The Foregrounds
Monika Viktorova, responsable produit tech, secteur de la logistique
Jason Green-Lowe, directeur exécutif, Center for AI Policy
Modérateur : Var Shankar, directeur de l’IA et de la protection de la vie privée, Enzai
Introduction de VS :
Présente les intervenants.
La discussion porte sur les politiques et les technologies de l’IA, dans la perspective d’une année 2025 dynamique.
Partie 1 : Où va l’IA en 2025 ?
MV :
Le négatif : L’utilisation abusive de l’IA générative augmente en raison de son accessibilité et de la baisse des coûts. Exemples : clonage vocal à des fins d’escroquerie, création de CSAM et désinformation à grande échelle. Des acteurs malveillants exploitent efficacement cette technologie. Même au sein d’organisations légitimes, des défaillances très médiatisées se produisent, par exemple des chatbots qui diffusent de la désinformation ou proposent des solutions en dehors des politiques de l’entreprise (par ex. l’affaire Air Canada). La propension de la GenAI à halluciner et à adapter ses réponses aux attentes des utilisateurs crée des risques. Un exemple précis est Character.AI, où des chatbots pro-anorexie influencent des adolescents vulnérables, ce qui souligne l’insuffisance des garde-fous.
Le positif : La GenAI favorise des avancées significatives dans la découverte scientifique, en particulier dans les domaines des sciences et de la médecine. La prédiction du repliement des protéines (AlphaFold 2) en est l’illustration, en accélérant la conception et le développement de médicaments.
Dans les organisations : La GenAI est largement déployée dans tous les secteurs. Les équipes commerciales et marketing l’utilisent pour la création de contenu et la prospection personnalisée. Les applications CRUD dans la finance et ailleurs enregistrent d’importants gains de productivité lorsque la GenAI est utilisée, avec des garde-fous et une supervision humaine, pour automatiser les rapports. La génération augmentée par récupération permet d’interagir avec d’immenses référentiels documentaires, facilitant la gestion de l’information. Toutefois, il est essentiel de sensibiliser les utilisateurs aux hallucinations et à la vérification des sources.
Message clé : Le potentiel d’augmentation de la productivité est considérable, mais des garde-fous robustes, la formation des utilisateurs et la gestion des hallucinations sont essentiels. Le ROI et les modèles de tarification pour les grandes organisations demeurent une question centrale.
JGL :
Il existe un potentiel considérable encore inexploité pour l’innovation technologique, même sans amélioration supplémentaire des modèles de base. Les organisations doivent se concentrer sur l’exploitation des modèles actuels, l’exploration de nouvelles niches de marché et le fait de « débrider » les modes d’interaction. Les interactions actuelles sont limitées (texte, requêtes courtes, réponses instantanées), mais les interactions futures pourraient intégrer des fenêtres de contexte plus larges, un « temps de réflexion » de l’IA, l’auto-amorçage, des interactions multimédias (voix, vidéo, musique, contrôle de véhicules) et l’intégration à la robotique pour un impact concret dans le monde réel.
Même un ralentissement temporaire de la montée en échelle des modèles n’arrêtera pas les progrès indéfiniment. Des goulets d’étranglement tels que l’électricité, les données et le financement peuvent affecter la croissance exponentielle, mais une croissance linéaire reste attendue. Les modèles de 2025 devraient être nettement plus puissants que ceux de 2024. Les rapports faisant état d’un plafonnement des performances peuvent être trompeurs, car les entreprises restent stratégiquement discrètes sur leurs investissements et leurs progrès réels.
Partie 2 : Où va la politique en 2025 ?
JGL :
Incertaines orientations de la politique américaine : Peu de discussions sur l’IA pendant la campagne ; seule une mention cryptique dans le programme républicain, visant à remplacer le décret présidentiel de Biden sur l’IA par une IA fondée sur la « liberté d’expression et l’épanouissement humain ».
Volet « liberté d’expression » : Probable réaction contre les préoccupations liées à la désinformation (perçues comme de la censure) et contre le politiquement correct.
Volet « épanouissement humain » : Le sens demeure flou ; liens potentiels avec les commentaires du Vatican sur l’IA, ainsi qu’avec les travaux de l’École de Chicago en économie sur le bien-être familial et les emplois adaptés.
Conseillers diversifiés : L’approche de l’administration Trump en matière d’IA demeure incertaine à ce stade, en raison de la diversité des conseillers.
Attentes : Poursuite du leadership américain grâce à des initiatives telles que l’Institut bipartisan pour la sécurité de l’IA, à la collaboration avec des entreprises innovantes sur les tests et les normes de sécurité, et à la mise en place de garde-fous de sécurité.
MV :
États-Unis vs UE : Le décret présidentiel américain mettait l’accent sur le respect volontaire, tandis que l’AI Act de l’UE prévoit des sanctions strictes (amendes de plusieurs millions d’euros). L’approche européenne pourrait inspirer des sanctions similaires dans de futures politiques américaines.
Paysage réglementaire mondial : Un environnement fragmenté, avec l’émergence de réglementations en Chine, au Brésil, en Australie, etc., créant des frictions et des défis pour les équipes produit et les dirigeants. Les multinationales doivent adapter leurs feuilles de route produit, leurs fonctionnalités, leur architecture sous-jacente et leurs modèles afin de se conformer aux différentes juridictions.
Mise en application par l’UE : Le focus de l’UE sur les affaires d’application très médiatisées et sur les amendes importantes infligées au titre du RGPD pourrait servir de modèle à l’application de l’AI Act, avec un impact sur la manière dont les organisations, en particulier les multinationales, abordent le développement et le déploiement de leurs produits.
Partie 3 : Qu’est-ce que cela signifie pour les organisations et les praticiens ?
JB :
Montée en compétences et adaptation : L’adaptation à l’IA est inégale et insuffisante, ce qui suscite des inquiétudes. De nombreuses entreprises accordent une priorité stratégique à la GenAI, tout en manquant de plans de montée en compétences. Les organisations doivent se concentrer sur la formation à l’IA et sur la standardisation.
Mesure du ROI : Les gains de productivité issus d’outils comme Cursor et GitHub Copilot doivent être suivis et déployés à l’échelle de l’organisation, et pas seulement utilisés par des développeurs isolés.
Réduction des risques : L’utilisation non standardisée de la GenAI expose les organisations à des risques significatifs. Les tests rétrospectifs, la supervision humaine et une analyse rigoureuse sont essentiels.
Évolution des compétences : Les développeurs juniors ayant accès à des outils de GenAI deviennent des « développeurs augmentés par l’IA », axés sur la résolution créative de problèmes et la conception de solutions. Cela nécessite des ajustements dans les fiches de poste, les pratiques RH et les évaluations de performance.
Répondre aux inquiétudes liées à la substitution des emplois : Bien que certaines fonctions puissent être réaffectées, il convient de considérer l’IA comme un levier. Les organisations responsables devraient repenser les lieux de travail, les flux de travail et les fiches de poste afin de créer de nouvelles opportunités et d’exploiter efficacement la supervision humaine.
Implications organisationnelles / bonnes pratiques : De nombreuses bonnes pratiques émergent en temps réel, souvent issues d’organisations bien dotées ou d’études de cas, plutôt que de cabinets de conseil traditionnels ou d’écoles de commerce.
JB poursuit : sources des bonnes pratiques
Fournisseurs de modèles de base : Des initiatives pédagogiques comme LLM University (Cohere) et des démarches similaires d’OpenAI fournissent des ressources précieuses.
Partenaires de formation à l’IA : Des organisations comme The Foregrounds compilent des études de cas, évaluent les succès et les échecs, et interrogent des experts afin de comprendre et de diffuser les bonnes pratiques.
Équipes internes d’éthique / de gouvernance de l’IA : Ces équipes pilotent la conformité, le déploiement responsable et l’alignement interfonctionnel au sein des organisations.
Gouvernement et institutions en lien avec les pouvoirs publics : Des initiatives comme la stratégie nationale d’IA de Singapour et les travaux du Center for AI Policy influencent les meilleures pratiques mondiales grâce à l’alignement des parties prenantes.
JB poursuit : promouvoir l’entrepreneuriat
L’accent mis par la nouvelle administration sur la promotion de l’entrepreneuriat, conjugué à une possible hausse des investissements dans des domaines traditionnellement privilégiés par les administrations conservatrices (défense, fabrication avancée) et à l’influence de personnalités comme Elon Musk, laisse présager des évolutions possibles du paysage entrepreneurial.
Défense : Des entreprises comme Anduril et Palantir devraient bénéficier d’opportunités accrues.
Fabrication avancée et robotique : Accent sur la relocalisation des capacités de production, l’IA venant compléter plutôt que remplacer les emplois ouvriers. Des entreprises comme Figure et les initiatives d’Elon Musk dans la robotique humanoïde en sont des exemples. Cela offre également des opportunités intéressantes d’un point de vue de la fabrication industrielle.
Industries créatives : Une nouvelle vague d’entrepreneurs et de créateurs exploite des outils d’IA pour la génération musicale, la production vidéo, la création d’images, etc. Ces personnes deviennent expertes dans ces outils, à l’image de la montée en compétence observée avec les produits SaaS, ce qui abaisse la barrière à l’entrée et favorise de nouvelles initiatives entrepreneuriales. Cela passe par la rationalisation du cycle de vie du développement produit, permettant des itérations et des déploiements plus rapides.
Santé et éducation : Bien que ces secteurs recèlent un potentiel prometteur, il demeure incertain que la nouvelle administration soutienne une expansion généralisée de l’IA dans ces domaines, compte tenu des approches conservatrices observées historiquement.
MV poursuit : petites organisations
Avantage de la GenAI pour les grandes organisations : Les grandes organisations ayant une présence multinationale disposent souvent de davantage de données et de ressources, ce qui leur confère un avantage dans le développement de la GenAI. Elles sont confrontées à des exigences réglementaires diverses et parfois contradictoires (par ex. décrets présidentiels, AI Act et réglementations en Chine, au Brésil, en Australie). Naviguer dans ce paysage réglementaire fragmenté ajoute de la complexité au développement et au déploiement des produits.
Stratégies pour les petites entreprises et les entrepreneurs :
Comprendre les capacités de la GenAI : Se concentrer sur l’identification des points forts de la GenAI et sur la manière dont elle peut bénéficier spécifiquement à leur activité.
Développer ou acheter : Prendre des décisions éclairées quant à la création de solutions d’IA en interne ou à l’utilisation de produits prêts à l’emploi, souvent plus rentables pour les petites organisations.
Achats et gestion des fournisseurs : Évaluer rigoureusement les fournisseurs d’IA, en se concentrant non seulement sur leurs capacités techniques, mais aussi sur les risques en aval, la conformité réglementaire, la cybersécurité et les considérations juridiques. Cela réduit la dépendance à l’expertise interne et permet aux petites entreprises de bénéficier de fournisseurs spécialisés.
S’inspirer des grandes organisations : Adopter les bonnes pratiques d’achat et de gestion des fournisseurs observées dans les grandes organisations. Cela aide les petites entreprises à sélectionner les bonnes solutions et à gérer efficacement leurs risques.
Rôle des politiques publiques : Les subventions accordées aux ONG peuvent faciliter l’accès aux outils de GenAI pour un bénéfice sociétal plus large et afin de garantir des conditions de concurrence plus équitables. Cela peut soutenir la recherche, le développement et le déploiement responsable de l’IA dans divers secteurs, tout en atténuant potentiellement les effets de « winner-take-all ». Cela favorise l’innovation et la concurrence, empêchant la domination de quelques grands acteurs.
JGL poursuit : collaboration homme-IA
Maintenir l’influence humaine : Délicat ; l’IA est souvent perçue comme objective et digne de confiance, ce qui facilite une dépendance excessive à ses recommandations. La supervision humaine dans la boucle peut s’avérer insuffisante.
Intégrer les rôles humains : Intégrer fondamentalement les rôles humains dans le processus décisionnel, et non pas seulement comme étape d’approbation finale.
IA oracle : Utiliser l’IA pour décrire la situation et mettre en évidence les informations pertinentes, plutôt que pour formuler des recommandations sur l’action finale. Cela permet aux humains de prendre des décisions éclairées sur la base d’analyses générées par l’IA.
Tâches vs emplois : L’IA excelle dans l’automatisation de tâches spécifiques, qui ne correspondent pas nécessairement à des emplois entiers. Il convient de restructurer les postes afin de distinguer les tâches qu’il vaut mieux confier aux humains de celles qu’il vaut mieux confier à l’IA. Cela crée une collaboration gagnant-gagnant et maximise les forces de chacun. À long terme, la crainte demeure d’une diminution des tâches humaines à mesure que l’IA progresse.
Conclusion de VS :
L’approche de l’administration Trump n’est pas encore claire.
L’AI Act de l’UE aura un impact sur les organisations mondiales.
Les organisations doivent se concentrer sur la formation, le recrutement et le développement des talents, ainsi que sur une supervision humaine appropriée.
Enzai est la principale plateforme de gouvernance de l’IA en entreprise, conçue pour aider les organisations à passer d’une politique abstraite à une supervision opérationnelle. Notre plateforme de gestion des risques liés à l’IA fournit l’infrastructure spécialisée nécessaire pour gérer la gouvernance de l’IA agentique, maintenir un inventaire complet de l’IA et garantir la conformité à l’AI Act de l’UE. En automatisant des workflows complexes, Enzai permet aux entreprises de déployer l’IA à grande échelle en toute confiance, tout en restant alignées sur des normes mondiales telles que ISO 42001 et NIST.
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

