Ryan Donnelly d'Enzai s'adresse à CTV News à propos des dernières avancées en matière de réglementation de l'IA au Canada.
•
•
3 minutes de lecture
Sujets
C'est la question que les dirigeants des grandes entreprises technologiques réunis à Washington ont discutée plus tôt ce mois-ci. La délégation, qui comprenait Elon Musk, Sundar Pichai, Mark Zuckerberg et Sam Altman, a rencontré des sénateurs américains à huis clos pour un « forum sur la sécurité de l'IA ». Alors que le rythme des avancées et de l'adoption de l'IA s'accélère, le gouvernement américain organise une série de réunions avec des dirigeants de la Silicon Valley, des chercheurs et des représentants syndicaux. L'objectif des législateurs américains est de gérer les risques et d'atténuer les dangers de l'IA. Mais les États-Unis sont encore loin de créer un cadre réglementaire.
Il y a peu de consensus sur l'apparence que pourrait prendre une législation potentielle, et trouver un équilibre entre la création de sauvegardes nécessaires et le soutien à l'innovation ne sera pas simple. Le chef de la majorité au Sénat américain, Chuck Schumer, a déclaré que même s'il y a un besoin de réglementations sur l'intelligence artificielle, celles-ci ne devraient pas être précipitées: « Si vous allez trop vite, vous pourriez tout gâcher ». Schumer a contrasté l'approche du Sénat avec celle de l'UE, qui selon lui a avancé trop rapidement. La loi européenne sur l'IA est la première loi complète sur l'IA au monde - le Parlement européen a adopté la loi en juin, et elle devrait entrer en vigueur d'ici la fin de 2023. La loi européenne sur l'IA a été critiquée pour être trop extrême : plus de 150 dirigeants d'entreprises européennes, dont Airbus, Siemens et Heineken, ont signé une lettre ouverte exhortant l'UE à reconsidérer la réglementation, qu'ils affirment mettre en péril la compétitivité et la souveraineté technologique de l'Europe.
CTV News a parlé avec le fondateur d'Enzai, Ryan Donnelly, pour discuter des discussions du « forum sur la sécurité de l'IA » à Washington et de la future réglementation des technologies de l'IA. « [Le forum sur la sécurité de l'IA] est un début mais il y a encore un long chemin à parcourir dans la conversation autour de la réglementation de cette technologie incroyable », explique Donnelly. Une grande partie des discussions à Washington s'est concentrée sur l'IA de pointe, définie par OpenAI comme « des modèles de base très capables qui pourraient posséder des capacités dangereuses suffisantes pour poser de graves risques à la sécurité publique ». Bien que ce soient des menaces existentielles, ce ne sont pas des risques imminents. Les deepfakes, par exemple, sont une préoccupation immédiate.
Donnelly propose des mesures que les entreprises peuvent prendre dès aujourd'hui pour améliorer la gouvernance de l'IA et gérer les risques présents aujourd'hui : « Mettre en place un système de gestion de la qualité autour de la manière dont vous construisez et déployez ces technologies, en gardant une documentation technique détaillée sur leur préparation, et réaliser les bonnes évaluations des risques » sont des acquisitions faciles. La clé, selon Donnelly, est de s'assurer que l'IA est « utilisée pour le bien » et que les gens lui font confiance.
Pour en savoir plus, lisez sur les solutions d'Enzai pour la gouvernance de l'IA, la gestion des risques de modèles, les régulations de l'IA, l'IA générative et la loi européenne sur l'IA.
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

