L’AI Act entre en vigueur
Adopté en 2024, le règlement européen sur l’intelligence artificielle (AI Act) entre progressivement en application. 2026 marque une étape clé avec l’obligation de conformité pour les systèmes d’IA à haut risque.
Classification des risques
L’AI Act classe les systèmes d’IA en quatre catégories : risque inacceptable (interdit), haut risque (réglementé strictement), risque limité (obligations de transparence), et risque minimal (pas de contrainte spécifique). Savoir où se situe votre utilisation de l’IA est la première étape.
Obligations concrètes pour les entreprises
Les entreprises utilisant des systèmes d’IA à haut risque doivent désormais : documenter leur système de gestion des risques, assurer la qualité des données d’entraînement, mettre en place une supervision humaine, et maintenir des registres d’activité détaillés.
Les amendes en cas de non-conformité
Les sanctions sont significatives : jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires mondial pour les infractions les plus graves (utilisation de systèmes interdits). Les PME bénéficient de délais supplémentaires et d’un accompagnement dédié.
Comment se préparer ?
Notre recommandation : réaliser un audit de vos usages IA actuels, identifier les systèmes potentiellement à haut risque, et mettre en place une gouvernance IA avec un référent dédié. Plusieurs cabinets de conseil spécialisés peuvent vous accompagner.