Mises à jour sur l'Opération AI Comply de la FTC et l'annonce du Procureur Général du Texas
•
•
3 minutes de lecture
Sujets
Étant donné que la Federal Trade Commission des États-Unis a été à l'avant-garde de la lutte contre les abus perçus de l'IA, la communauté des politiques relatives à l'IA n'a pas été surprise par l'annonce de la FTC le 25 septembre, indiquant qu'elle avait pris des mesures contre des entreprises accusées de tromperie basée sur l'IA. Dans le même temps, l'une de ces actions – contre l'entreprise d'IA générative Rytr – comporte des éléments nouveaux, comme discuté ci-dessous.
Plus surprenante que les actions de la FTC fut l'annonce du 18 septembre par le procureur général du Texas, Ken Paxton, qui a conclu un règlement « sans précédent » avec Pieces Technologies, un fournisseur d'IA générative pour la santé, décrit plus loin ci-dessous.
L'« Opération AI Comply » de la FTC et la plainte contre Rytr
Le 25 septembre, la Federal Trade Commission des États-Unis a annoncé des mesures contre cinq entreprises accusées d'utiliser l'IA pour « renforcer des conduites trompeuses ou déloyales qui nuisent aux consommateurs. » Deux des entreprises – DoNotPay et Rytr – ont conclu des règlements avec la FTC, tandis que les trois autres entreprises sont soumises à des ordonnances judiciaires et attendent des procès.
La plus controversée de ces actions était dirigée contre Rytr, une entreprise qui permet de générer des avis de clients, des témoignages, des articles de blog, des supports marketing, des e-mails et d'autres contenus textuels dans des tonalités spécifiques (telles que « sérieux » ou « humoristique »). Deux des cinq Commissaires de la FTC ont voté contre la publication de la plainte par la FTC. Plusieurs observateurs et commentateurs de la FTC ont qualifié l'action de la FTC de sans précédent.
La plainte de la FTC se concentrait sur les avis et témoignages de consommateurs, que la FTC suggérait souvent contenir des « détails spécifiques, souvent matériels, qui n'avaient aucun rapport avec l'entrée de l'utilisateur » et étaient donc « faux et trompeurs. » Puisque la plupart des gens seraient incapables de faire la différence entre des avis clients générés par IA et des avis légitimes, les services de Rytr pourraient « polluer le marché avec un flot d'avis faux » et nuire aux consommateurs, selon la FTC. De plus, en fournissant cette capacité aux clients, Rytr fournissait aux clients des « moyens et des instruments pour la commission d'actes et de pratiques trompeuses. »
Les deux commissaires dissidents ont soutenu que la plainte de la FTC ne montrait pas de preuve que des avis faux et trompeurs avaient effectivement été postés en ligne, qu'elle constituait une « extension dramatique » de la responsabilité par les moyens et instruments, qu'elle ne tenait pas suffisamment compte des avantages pour les consommateurs lors du processus de rédaction et qu'elle faisait partie d'un effort prématuré et agressif pouvant potentiellement « tordre la loi pour s'attaquer à l'IA » et « refroidir l'innovation. »
Le Texas et l'entreprise d'IA en santé règlent une affaire de réclamations trompeuses
Dans une évolution surprenante, le procureur général du Texas, Ken Paxton, a annoncé un accord avec Pieces Technologies le 18 septembre. Pieces est une entreprise de soins de santé qui utilise l'IA générative pour produire de la documentation médicale, souvent basée sur des données patients. Au moins quatre hôpitaux texans utilisent les services de Pieces. Le bureau du procureur général Paxton a indiqué que Pieces avait fait des « déclarations trompeuses » sur la précision de sa documentation. Bien que Pieces ait nié tout acte répréhensible et maintenu que ses déclarations de précision étaient correctes, elle a accepté de fournir davantage d'informations sur la précision de ses produits et de s'assurer que le personnel hospitalier utilisant ses services comprenne dans quelle mesure il peut ou ne peut pas s’y fier. L'épisode indique que les autorités étatiques sont de plus en plus disposées à agir contre des allégations d'IA prétendument trompeuses.
Enzai est là pour vous aider
La plateforme GRC d’Enzai peut aider votre entreprise à déployer l'IA en conformité avec les meilleures pratiques et les réglementations, normes et cadres émergents, tels que l'EU AI Act, le Colorado AI Act, le NIST AI RMF et ISO/IEC 42001. Pour en savoir plus, contactez-nous ici.
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

