Réflexions de Paris : les arguments en faveur d'une réglementation pour renforcer l'innovation

Au moment où le vice-président américain JD Vance prononçait son allocution lors du Sommet d'action sur l'IA au Grand Palais, j'étais à l'OCDE pour une journée de tables rondes sur la sécurité, la gouvernance et l'éthique de l'IA. C'était la même ville, séparée seulement par deux rues, mais on avait l'impression d'être loin. Au Grand Palais, le concept de régulation de l'IA a été un enjeu politique alors que l'innovation et le dynamisme américains occupaient le devant de la scène. Alors qu'à l'OCDE, la nécessité d'une réglementation de l'IA était considérée comme plus pressante que jamais.
Ce sommet sur l'IA ne ressemble à aucun autre auquel j'ai assisté. L'ambiance était différente et divisée, et je pense que cela reflète en grande partie l'air du temps occidental actuel. Nous vivons actuellement une évolution majeure de l'opinion publique dans le monde entier : les débats sur l'immigration, le commerce international et le rôle de l'État créent (ou exacerbent, selon la façon dont vous les percevez) de profondes divisions sociétales entre les démocraties occidentales.
Réaction réglementaire
Cette rupture s'est clairement manifestée à Paris, où des représentants du gouvernement et des experts du secteur se sont réunis pour discuter des derniers développements en matière d'IA. Contrairement au premier sommet du Royaume-Uni intitulé AI Safety Summit, le thème de Paris était l'innovation rapide et la peur d'être laissé pour compte. L'ambiance est claire : il est temps de « brancher, bébé, brancher »1 et l'idée de réglementer les technologies de pointe est carrément dans le collimateur. Est-ce juste de l'opportunisme à son meilleur, ou est-ce quelque chose d'un peu plus dangereux ?
Non seulement je comprends le sentiment qui sous-tend une grande partie de cette réaction réglementaire, mais je le partage. Cela peut sembler étrange et contreproductif de la part du fondateur d'une start-up spécialisée dans la gouvernance de l'IA, mais j'y crois sincèrement. Je suis extrêmement enthousiasmé par le potentiel des technologies d'IA pour transformer notre façon de vivre pour le mieux. Nous avons besoin d'innovations incessantes pour y parvenir et d'un cadre de mal conçu les règles ne nous y amèneront pas. Des règles stupides, qui imposent des contraintes inutiles et souvent irréalistes aux acteurs du marché, n'aident personne et constituent une menace légitime pour le progrès et l'innovation.
Mais considérez un instant un univers alternatif, car l'adjectif mal conçu dans le paragraphe ci-dessus fait tout le gros du travail ici. Et si nous concevions plutôt des règles utiles ? L'adage « les bonnes lois sont bonnes et les mauvaises lois sont mauvaises » n'a jamais été aussi vrai qu'à l'ère numérique. Si les réglementations relatives à l'IA étaient rédigées d'une manière spécifique au contexte, qui tienne compte des caractéristiques uniques des technologies et du contexte sociétal dans lequel elles sont déployées, cela ne serait-il pas un net avantage pour la société ? Une bonne réglementation est un moyen de garantir que les acteurs malveillants sont contrôlés et punis pour leurs violations, et que les organisations qui cherchent à faire progresser la société de manière positive peuvent le faire dans un cadre solide de normes élevées. Avec le bon cadre en place, l'innovation peut prospérer, tous les participants jouant au même jeu selon les mêmes règles.
Les règles ne sont pas toutes mauvaises
Vous n'êtes pas encore convaincu par ce nouveau cadrage ? Examinez ensuite certains de ces principes hors contexte. Le rugby est ce qu'il est précisément à cause des règles selon lesquelles les deux équipes adverses jouent. Nous pouvons et nous devons débattre du bien-fondé de certaines de ces règles (je pense que la règle du dépassement de la ligne est trop sévère pour les équipes attaquantes et met fin au suspense), mais personne ne demande que les règles du jeu soient complètement supprimées. Les récentes règles relatives à la protection de la tête d'un joueur lors du plaquage ont été compliquées à mettre en œuvre, mais elles sont essentielles à la fois pour le bien-être des joueurs et pour la survie à long terme du jeu. En fait, ces nouvelles règles permettent au jeu non seulement de survivre, mais aussi de prospérer.
L'ère des réseaux sociaux offre une leçon qui donne à réfléchir quant au coût de l'inaction réglementaire. Pendant plus d'une décennie, les plateformes ont été autorisées à s'adapter à des milliards d'utilisateurs sans pratiquement aucun contrôle de leurs pratiques en matière de données, de leurs algorithmes de contenu ou de leur impact sur la santé mentale des jeunes. Il s'agissait d'une approche axée sur l'innovation, dont le mantra était littéralement « d'agir vite et de faire bouger les choses ». Les résultats de cette approche sont devenus terriblement évidents : des atteintes à la vie privée sans précédent, comme celles de Cambridge Analytica, des institutions démocratiques mises à rude épreuve et des atteintes documentées à la santé mentale des adolescents. Lorsque les régulateurs ont commencé à agir, ces problèmes étaient profondément enracinés et beaucoup plus difficiles à résoudre.
Appliquer cette analyse à la réglementation de l'IA
Et nous pouvons voir comment ce schéma pourrait se reproduire avec l'IA. Lorsque nous donnons la priorité à la rapidité par rapport aux systèmes de responsabilité, nous risquons de saper les fondements mêmes qui rendent possible le progrès. L'une des critiques les plus fréquentes à l'encontre de la réglementation de l'IA est l'argument selon lequel elle impose des contraintes réglementaires supplémentaires et complexes sur des épaules qui ne peuvent pas supporter le poids. Encore une fois, cela semble être une bonne critique à première vue, mais dans le cas de la loi européenne sur l'IA, ce n'est tout simplement pas vrai. Mettre en œuvre des éléments tels qu'un système de gestion des risques (article 9) (« RMS ») et un système de gestion de la qualité (article 17) (« QMS ») pour les technologies d'IA qui présentent clairement un risque élevé n'est pas trop demander. En fait, les entreprises de grande qualité le feront de toute façon parce que c'est dans leur intérêt commercial de le faire, car cela contribue à renforcer la confiance des clients. Et si vous pensez que la loi sur l'IA de l'UE porte un préjudice injuste aux petites entreprises, prêtez une attention particulière à la formulation « PME intelligente » figurant à l'article 99, paragraphe 6, concernant les sanctions. Et surtout, de la même manière que l'IA peut contribuer à transformer la médecine, le droit et la finance, elle peut également contribuer à la conformité réglementaire. La plateforme de gouvernance de l'IA d'Enzai permet aux organisations de mettre en œuvre des programmes complets de conformité à l'IA de manière efficace et à grande échelle.
La directive sur la responsabilité en matière d'IA est une victime particulièrement lamentable du sommet sur l'IA de cette année. Pour rappel, la directive sur la responsabilité a été conçue pour garantir que si un demandeur a subi un préjudice en raison d'un système d'IA, il n'aurait pas à prouver un lien de causalité approfondi entre le système d'IA et le préjudice causé. La directive prévoyait également une forte présomption réfutable en faveur de tout défendeur pouvant prouver son QMS et son RMS. Plus d'informations à ce sujet ici, mais en fin de compte, même si cela peut sembler être une initiative favorable à l'innovation, c'est en fait tout le contraire. Il en résulte une insécurité juridique qui n'aide pas à remédier à la cause de la déréglementation, mais en aggrave les lacunes.
Une vision de l'avenir
Le lendemain de l'AI Action Summit, Anthropic a organisé son premier AI Builders Summit à Paris. C'était rassurant d'entendre le PDG d'Anthropic, Dario Amodei, décrire « l'occasion manquée » du sommet et recentrer la discussion sur la sécurité, la transparence et la garantie que tout le monde participe à l'essor économique de la très puissante IA. L'avenir de l'IA ne sera pas décidé par celui qui criera le plus fort dans les grands palais. Il sera construit par ceux qui sont prêts à faire le travail discret et méthodique qui consiste à déterminer comment faire fonctionner ces puissants outils de manière fiable et responsable.
1 Le président français Emmanuel Macron a inventé cette expression lors d'un discours prononcé lors du AI Action Summit
