EU AI Act High-Risk Categories
The two classifications of high-risk AI systems under the EU AI Act: standalone systems listed in Annex III (covering biometrics, critical infrastructure, employment, education, law enforcement, and other named uses), and AI embedded in regulated products listed in Annex I (covering medical devices, vehicles, machinery, and other regulated product categories).
The EU AI Act treats certain AI systems as high-risk because of their potential to affect fundamental rights, safety, or critical societal functions. Annex III lists eight standalone categories where the system itself is classified as high-risk based on its intended purpose, while Annex I covers AI components embedded in products already subject to existing EU sectoral safety legislation. Following the Digital Omnibus deal of 7 May 2026, Annex III obligations apply from 2 December 2027 and Annex I obligations from 2 August 2028. Both categories require conformity assessment, technical documentation, post-market monitoring, and adherence to the AI Act's risk management and human oversight requirements.
A retail bank's CV-screening AI is classified as Annex III high-risk under the employment and worker management category. The same bank's AI-driven fraud-detection model embedded in payment-processing infrastructure may also qualify as Annex I high-risk if the underlying payment system is regulated under existing EU financial-services safety law. Each system requires its own Article 6 classification and a separate conformity assessment.
« Ce qui prenait auparavant des semaines de révisions manuelles et de travail sur les politiques est maintenant structuré et auditable dans Enzai en quelques minutes. C'est la première fois que la gouvernance de l'IA semble opérationnelle, et non théorique. »
Prêt à commencer
avec votre programme de gouvernance de l'IA ?
Enzai fournit une plateforme de gouvernance et d’accompagnement de l’IA qui aide votre organisation à maximiser l’adoption de l’IA, tout en minimisant les risques liés à l’IA.
Recevez une réponse sous 24 heures

Classification des Tickets de Support Client
Cas d'utilisation provisoire
5 solutions IA demandées
Demandé le : 7 nov. 2026
Demandé par :Enzai
Évaluateurs :



Examen Automatisé des Risques Contractuels
Cas d'utilisation provisoire
5 solutions IA demandées
Demandé le : 7 juillet 2026
Demandé par :Enzai
Évaluateurs :



Prévisions des Ventes et Anticipation de la Demande
Cas d'utilisation provisoire
5 solutions IA demandées
Demandé le : 18 août 2026
Demandé par :Enzai
Évaluateurs :



Assistant de Pré-sélection des CV des Employés
Cas d'utilisation provisoire
5 solutions IA demandées
Demandé le : 19 juin 2026
Demandé par :Enzai
Évaluateurs :




Nous vous aidons à trouver des réponses
Quel problème Enzai résout-il ?
Enzai fournit une infrastructure de niveau entreprise pour gérer les risques et la conformité de l'IA. Il crée un système centralisé où les systèmes d'IA, les modèles, les ensembles de données et les décisions de gouvernance sont documentés, évalués et audités.
Pour qui Enzai est-il conçu ?
En quoi Enzai se distingue-t-il des autres outils de gouvernance ?
Pouvons-nous commencer si nous n'avons pas de processus de gouvernance de l'IA existant ?
La gouvernance de l'IA freine-t-elle l'innovation ?
Comment Enzai s'aligne-t-il avec l'évolution des réglementations en matière d'IA ?
Recherche, perspectives et mises à jour
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.
