Mises à jour sur l'Opération AI Comply de la FTC et l'annonce du Procureur Général du Texas
•
•
4 minutes de lecture
Sujets
Depuis que la Commission fédérale du commerce des États-Unis (Federal Trade Commission, FTC) est à l’avant-garde de la lutte contre les usages abusifs perçus de l’IA, la communauté des politiques liées à l’IA n’a pas été surprise par l’annonce de la FTC, le 25 septembre, selon laquelle elle avait engagé des mesures à l’encontre de cinq entreprises soupçonnées de recourir à une tromperie pilotée par l’IA. Dans le même temps, l’une de ces actions – contre l’entreprise d’IA générative Rytr – présente des éléments novateurs, comme nous le verrons ci-dessous.
Plus surprenante encore que les actions de la FTC a été l’annonce, le 18 septembre, du procureur général du Texas, Ken Paxton, selon laquelle il avait conclu un accord de règlement « inédit » avec Pieces Technologies, un fournisseur d’IA générative pour le secteur de la santé, présenté plus en détail ci-dessous.
« Operation AI Comply » de la FTC et la plainte contre Rytr
Le 25 septembre, la Federal Trade Commission des États-Unis a annoncé des mesures à l’encontre de cinq entreprises, accusées d’avoir utilisé l’IA pour « amplifier des pratiques trompeuses ou déloyales qui nuisent aux clients ». Deux des entreprises – DoNotPay et Rytr – ont conclu des accords à l’amiable avec la FTC, tandis que les trois autres entreprises font l’objet d’ordonnances judiciaires et attendent leur procès.
La plus controversée de ces actions visait Rytr, une entreprise qui permet de générer des avis clients, des témoignages, des articles de blog, des supports marketing, des e-mails et d’autres contenus textuels dans des tonalités spécifiques (par exemple « sérieuse » ou « humoristique »). Deux des cinq commissaires de la FTC ont voté contre le dépôt de la plainte par la FTC. Plusieurs observateurs de la FTC et commentateurs ont qualifié l’action de la FTC de sans précédent.
La plainte de la FTC portait principalement sur les avis et témoignages de consommateurs, que la FTC a indiqué contenir souvent « des détails précis, souvent essentiels, sans rapport avec la saisie de l’utilisateur » et être par conséquent « faux et trompeurs ». Comme la plupart des personnes ne seraient pas en mesure de distinguer des avis et témoignages clients générés par l’IA de contenus légitimes, les services de Rytr pourraient « saturer le marché d’une multitude de faux avis » et nuire aux consommateurs, selon la FTC. En outre, en offrant cette fonctionnalité à ses clients, Rytr leur fournissait des « moyens et instruments pour commettre des actes et pratiques trompeurs ».
Les deux commissaires dissidents ont soutenu que la plainte de la FTC ne démontrait l’existence d’aucun avis faux ou trompeur effectivement publié en ligne, qu’elle constituait une « extension spectaculaire » de la théorie de la responsabilité fondée sur les moyens et instruments, qu’elle ne prenait pas dûment en compte les avantages pour les consommateurs au cours du processus de rédaction et qu’elle s’inscrivait dans un effort prématuré et agressif susceptible, selon eux, de « tordre le droit pour s’attaquer à l’IA » et de « freiner l’innovation ».
Le Texas et une entreprise d’IA pour la santé règlent une affaire de déclarations trompeuses
Dans un développement surprenant, le procureur général du Texas, Ken Paxton, a annoncé le 18 septembre un règlement avec Pieces Technologies. Pieces est une entreprise de santé qui utilise l’IA générative pour produire de la documentation médicale, souvent à partir de données de patients. Au moins quatre hôpitaux du Texas utilisent les services de Pieces. Le bureau du procureur général Paxton a suggéré que Pieces avait formulé des « déclarations trompeuses » concernant l’exactitude de sa documentation. Bien que Pieces ait nié toute faute et maintenu que ses affirmations relatives à l’exactitude étaient exactes, l’entreprise a accepté de fournir des informations supplémentaires sur l’exactitude de ses produits et de s’assurer que le personnel hospitalier utilisant ses services comprenne dans quelle mesure il peut, ou non, s’y fier. Cet épisode montre que les autorités étatiques sont de plus en plus disposées à agir contre des allégations d’IA prétendument trompeuses.
Enzai est là pour vous accompagner
La plateforme GRC IA d’Enzai peut aider votre entreprise à déployer l’IA conformément aux bonnes pratiques ainsi qu’aux réglementations, normes et cadres émergents, tels que l’AI Act de l’UE, l’AI Act du Colorado, le NIST AI RMF et ISO/IEC 42001. Pour en savoir plus, contactez-nous ici.
Enzai est la plateforme leader de gouvernance de l’IA en entreprise, conçue spécifiquement pour aider les organisations à passer d’une politique abstraite à une supervision opérationnelle. Notre plateforme de gestion des risques liés à l’IA fournit l’infrastructure spécialisée nécessaire pour gérer la gouvernance de l’IA agentique, maintenir un inventaire de l’IA complet et garantir la conformité à l’AI Act de l’UE. En automatisant des workflows complexes, Enzai permet aux entreprises d’accélérer l’adoption de l’IA en toute confiance tout en restant alignées sur des normes mondiales telles que ISO 42001 et NIST.
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

