Découvrez la gamme complète de produits de gouvernance de l'IA d'Enzai, conçus pour aider les organisations à gérer, surveiller et faire évoluer l'IA en toute confiance. Des processus d'intégration structurés et des inventaires centralisés d'IA aux évaluations automatisées et à la surveillance en temps réel, Enzai fournit les éléments nécessaires pour intégrer la gouvernance directement dans les flux de travail quotidiens de l'IA, sans freiner l'innovation.

Enzai

Réglementations sur l'IA

Ce que les récentes actions de la FTC signifient pour les entreprises utilisant l'IA

Réglementations sur l'IA

Ce que les récentes actions de la FTC signifient pour les entreprises utilisant l'IA

Réglementations sur l'IA

Ce que les récentes actions de la FTC signifient pour les entreprises utilisant l'IA

Les récentes actions et directives de la FTC ont des implications significatives pour les organisations

Belfast

Belfast

4 minutes de lecture

Par

Par

Var Shankar

Var Shankar

Faire appliquer les lois existantes en matière de protection des consommateurs

Faire appliquer les lois existantes en matière de protection des consommateurs

La FTC applique de manière rigoureuse les lois en vigueur afin de réprimer les deepfakes générés par l’IA, la reconnaissance faciale biaisée et les conditions d’utilisation trompeuses, démontrant ainsi que l’IA n’est pas exemptée de l’examen réglementaire.

La FTC applique de manière rigoureuse les lois en vigueur afin de réprimer les deepfakes générés par l’IA, la reconnaissance faciale biaisée et les conditions d’utilisation trompeuses, démontrant ainsi que l’IA n’est pas exemptée de l’examen réglementaire.

La menace de l’extraction du modèle

La menace de l’extraction du modèle

L'accord historique conclu avec Rite Aid signale la volonté de la FTC d'imposer une « restitution des modèles », obligeant les entreprises à supprimer définitivement les algorithmes et les modèles dérivés de données acquises de manière inappropriée.

L'accord historique conclu avec Rite Aid signale la volonté de la FTC d'imposer une « restitution des modèles », obligeant les entreprises à supprimer définitivement les algorithmes et les modèles dérivés de données acquises de manière inappropriée.

Sujets

Politique de l'IA au Royaume-Uni
Changement Politique
Orientation Réglementaire
Gouvernance Nationale

Sujets

La régulation américaine de l'IA est un patchwork. Pour commencer, les lois existantes à tous les niveaux s'appliquent aux systèmes d'IA. En ce qui concerne les règles générales pour l'IA, le cadre de gestion des risques de l'IA de NIST, faisant autorité, est volontaire, l'ordonnance exécutive sur l'IA de confiance de l'administration Biden et les orientations de l'OMB qui s'ensuivent s'appliquent uniquement au gouvernement fédéral, et le Colorado est actuellement le seul État à réglementer largement les systèmes d'IA. D'autres juridictions - comme la ville de New York et l'Illinois - ont réglementé des cas d'utilisation spécifiques de l'IA, comme le recrutement automatisé.

Actuellement, les orientations et actions de la Commission Fédérale du Commerce (“FTC”) des États-Unis offrent l'image la plus claire de la manière dont le gouvernement fédéral s'attend à ce que les entreprises déploient des systèmes d'IA. Les récentes orientations de la FTC ont tenté d'aborder les événements actuels avec rapidité. En février, la FTC a finalisé une règle interdisant l'utilisation de deepfakes d'IA pour usurper l'identité d'organisations ou d'agences gouvernementales. Le même mois, elle a averti les entreprises d'IA contre la modification furtive de leurs conditions de service avec effet rétroactif. Ces activités s'ajoutent à son examen des investissements et acquisitions par les grandes entreprises technologiques sous un angle antitrust. En mai, la présidente de la FTC, Lina Khan, a écrit un article d'opinion dans le New York Times, décrivant son approche proposée de la régulation de l'IA.

Pourquoi l'affaire Rite Aid de décembre était-elle si importante ?

En décembre 2023, la FTC a annoncé un règlement avec la chaîne de pharmacies Rite Aid. Rite Aid avait « utilisé la technologie de reconnaissance faciale dans des centaines de ses pharmacies de détail pour identifier les clients qu'elle avait auparavant jugés susceptibles de se livrer à du vol à l'étalage ou d'autres comportements criminels », selon une plainte de la FTC. Dans le règlement, Rite Aid a accepté de s'abstenir de déployer des systèmes de reconnaissance faciale pendant cinq ans dans ses magasins de détail ou en ligne et de supprimer les photos et vidéos des clients utilisées de manière inappropriée dans des systèmes de reconnaissance faciale, y compris les « données, modèles et algorithmes » dérivés de cette utilisation.

Quelles sont les implications pour les organisations utilisant l'IA ?

Le règlement de la FTC avec Rite Aid était notable pour deux raisons. Premièrement, il a démontré l'interprétation par la FTC de la discrimination par l'IA. Deuxièmement, il a marqué l'utilisation continue de la confiscation de modèles comme remède.

Discrimination par l'IA

Concernant la discrimination par l'IA, la FTC a noté que le déploiement par Rite Aid de systèmes de reconnaissance faciale ne tenait pas compte des taux élevés de faux positifs dans les différents groupes démographiques. Elle a également suggéré que le schéma des magasins choisis pour le déploiement de la reconnaissance faciale aurait un impact discriminatoire disproportionné sur les groupes minoritaires.

Confiscation de modèles

La FTC a également exigé la confiscation de modèles, un remède relativement nouveau qu'elle a inauguré en 2019, ce qui oblige une organisation à supprimer les données, modèles et algorithmes dérivés de l'utilisation inappropriée de systèmes d'IA. Depuis 2019, la FTC a précédemment exigé la confiscation de modèles dans de nombreux épisodes, y compris ceux liés à Cambridge Analytica, Everalbum, WW (anciennement Weight Watchers) et Ring. Il est probable que la FTC exigera la confiscation de modèles dans les futures actions d'application de l'IA.

Leçons

Certaines leçons que les organisations devraient tirer de l'épisode Rite Aid incluent: 

·     Réaliser des évaluations de risque de l'IA

·     Mettre en place des programmes de formation complets pour les employés supervisant les systèmes d'IA à haut risque

·     Considérer le contexte du déploiement de l'IA, y compris les impacts potentiellement discriminatoires

·     Examiner les ensembles de données pour en vérifier l'exactitude, le biais et l'adéquation à l'objectif

·     Être transparent avec les personnes sur l'utilisation qui sera faite de leurs données

·     Être réfléchi quant à la façon, et dans quelle mesure, de décrire les systèmes d'IA au public et aux régulateurs

·     Évaluer les pratiques de confidentialité et d'IA responsable des fournisseurs

Enzai est là pour vous aider

Le produit Enzai peut aider votre entreprise à déployer l'IA conformément aux meilleures pratiques et aux réglementations, normes et cadres émergents, tels que la loi européenne sur l'IA, la loi du Colorado sur l'IA, le cadre de gestion des risques de l'IA du NIST et l'ISO/IEC 42001. Pour en savoir plus, contactez-nous ici.

Découvrez davantage

Découvrez davantage

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Conformité Intégrée Dès la Conception

Conformité Intégrée Dès la Conception

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

Gouvernance de l'IA

Gouvernance de l'IA

Infrastructure

Infrastructure

conçu pour la Confiance.

conçu pour la Confiance.

Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.