L’AI Act, désignant le règlement européen dédiée à l’intelligence artificielle, prévoit une entrée en application progressive, échelonnée selon le type de système d’IA concerné.
Entré en vigueur en août 2024, le règlement déploie progressivement ses principales obligations entre février 2025 et août 2027, offrant aux organisations une période de transition clé pour anticiper leur mise en conformité.
Le calendrier ci-dessous défini dans le règlement permet de visualiser les principales échéances à retenir :
| 2 février 2025 | Interdiction de pratiques inacceptables en matière d’IA |
| 2 août 2025 | Exigences pour les modèles d’IA à usage général (GPAI) |
| 2 août 2026 | Date d’application générale du règlement Entrée en vigueur de toutes les dispositions notamment : – Les obligations de transparence – Les exigences relatives aux systèmes d’IA à hauts risques relevant de l’Annexe III |
| 2 août 2027 | Les exigences relatives aux systèmes d’IA à hauts risques relevant de l’Annexe I |
Exigences et impacts selon les catégories d’opérateurs
Les dispositions de l’AI Act s’appliquent à l’ensemble des opérateurs, qu’il s’agisse d’entreprises, d’autorités publiques, d’organisations ou d’autres acteurs, qui mettent sur le marché, déploient ou utilisent un système ou modèle d’IA dans l’Union européenne.
Le critère déterminant n’est pas le lieu d’implantation de l’acteur, mais le fait que le système d’IA soit commercialisé ou mis en service dans l’UE, ou que ses effets concernent des personnes situées sur le territoire de l’Union.
1. Systèmes d’IA à haut risque
Les systèmes d’IA à haut risque font peser l’essentiel des obligations de l’AI Act sur les fournisseurs, auxquels s’appliquent des exigences renforcées tout au long du cycle de vie des systèmes. Ces obligations portent notamment sur :
- La gestion des risques,
- La gouvernance des données,
- La documentation et la traçabilité,
- La supervision humaine,
- Des exigences élevées en matière de précision, de robustesse et de cybersécurité, et,
- Un système de management de la qualité.
Avant toute mise sur le marché, les fournisseurs doivent également satisfaire à des obligations procédurales, telles que l’évaluation de conformité, le marquage CE et l’enregistrement dans une base de données européenne.
Les autres opérateurs (déployeurs, importateurs, distributeurs et mandataires) restent également soumis à des obligations, mais dans une moindre mesure que les fournisseurs. Celles-ci portent principalement sur :
- L’utilisation conforme des systèmes,
- La vérification de certaines exigences de conformité,
- La coopération avec les autorités compétentes et,
- Selon les cas, la réalisation d’analyses d’impact ou la conservation des journaux générés par les systèmes d’IA.
2. Obligations de transparence
Les fournisseurs de système d’IA soumis à des obligations de transparence doivent :
- Informer les personnes concernées lorsqu’elles interagissent avec un système d’IA, sauf si cela est évident dans le contexte
- Garantir que ces contenus sont identifiables comme artificiels ou manipulés, au moyen de solutions techniques efficaces et fiables, lorsque les systèmes génèrent ou manipulent des contenus (images, sons, vidéos ou textes)
Les déployeurs doivent :
- Informer les personnes concernées lorsque des systèmes d’IA sont utilisés pour la reconnaissance des émotions ou la catégorisation biométrique
- Indiquer le caractère artificiel, sous réserve des exceptions prévues (œuvres artistiques, satiriques ou usages spécifiques), lorsqu’ils diffusent des deepfakes ou des contenus générés ou manipulés par l’IA, notamment dans un contexte d’intérêt public
État des lieux et anticipation de ce qui arrive en 2026
L’année 2026 s’annonce comme une année charnière pour la mise en œuvre de l’AI Act.
Plusieurs évolutions majeures sont attendues, notamment la publication des normes harmonisées, de lignes directrices de la Commission européenne, ainsi que par les discussions autour du paquet Omnibus, dont les débats pourraient influencer le calendrier et les modalités d’application du règlement.
1. Les normes harmonisées
Les normes harmonisées, élaborées par le CEN et le CENELEC, devraient être publiées au cours de l’année 2026 (pas avant le second semestre), voire en fin d’année, sans qu’aucune date précise n’ait encore été communiquée.
Elles ont vocation à traduire les exigences de l’AI Act en référentiels techniques concrets, afin de faciliter leur mise en œuvre opérationnelle par les organisations.
Ces normes couvriront des thématiques clés telles que les systèmes de management de la qualité, la gestion des risques, la cybersécurité, la gouvernance et la qualité des données, ainsi que les cadres de confiance applicables aux systèmes d’IA.
Pour certaines obligations, leur application permettra de bénéficier d’une présomption de conformité, offrant ainsi un cadre plus lisible et plus sécurisé pour démontrer l’alignement réglementaire des systèmes d’IA.
2. Les lignes directrices
L’année 2026 marquera une étape clé dans la clarification de nombreux concepts encore abstraits de l’AI Act.
La Commission européenne prévoit la publication de lignes directrices visant à préciser l’application pratique de la classification des systèmes d’IA à haut risque, les exigences de transparence prévues à l’article 50, ainsi que les exigences et obligations applicables aux systèmes d’IA à haut risque, tant pour les fournisseurs que pour les déployeurs.
Ces orientations porteront également sur la notification des incidents graves par les fournisseurs, les responsabilités tout au long de la chaîne de valeur de l’IA, ainsi que sur les règles applicables en cas de modification substantielle des systèmes.
D’autres lignes directrices sont attendues sur des aspects opérationnels clés, notamment la mise à disposition d’un modèle d’évaluation de l’impact sur les droits fondamentaux, d’un modèle volontaire de surveillance post-commercialisation des systèmes d’IA à haut risque, ainsi que sur les éléments du système de management de la qualité, avec des modalités de conformité simplifiées pour les PME et SMC.
Enfin, la Commission devrait également préciser l’articulation entre l’AI Act et les autres législations européennes, en particulier le droit européen de la protection des données.
3. Le paquet « Digital Omnibus »
Dans un contexte de montée en puissance des exigences réglementaires européennes en matière de numérique et d’intelligence artificielle, la Commission européenne a engagé une démarche visant à simplifier, clarifier et rendre plus opérationnelle l’application de l’AI Act, en particulier pour les acteurs économiques, notamment en leur accordant davantage de temps pour se préparer grâce à la publication de lignes directrices.
C’est dans ce cadre que, le 19 novembre, la Commission a officiellement présenté le « projet Digital Omnibus », un ensemble de mesures destiné à alléger certaines obligations de l’AI Act, à ajuster les modalités de mise en œuvre et à renforcer la cohérence du cadre réglementaire européen.
Le projet prévoit notamment les mesures de simplification suivantes :
- Adapter le calendrier des règles applicables aux systèmes d’IA à haut risque en fonction de la disponibilité effective des normes et des outils nécessaires : avancée de l’application des exigences de labellisation des contenus générés afin d’être détectable par machine (watermarking) dans le cadre des obligations de transparence à partir du 2 février 2027, report des exigences pour les SIA à haut risque visés par l’annexe III au 2 août 2027 et des exigences pour les SIA à haut risque visés par l’annexe III au 2 décembre 2028
- Étendre les allègements prévus pour les PME aux petites mid-caps, incluant des exigences simplifiées en matière de documentation technique et une approche proportionnée dans l’application des sanctions ;
- Confier à la Commission et aux États membres la promotion de la culture de l’IA, plutôt que d’imposer une obligation générale et peu définie aux fournisseurs et déployeurs ; les obligations de formation pour les déployeurs de systèmes à haut risque demeurent ;
- Rendre la surveillance post-commercialisation plus flexible en supprimant l’obligation d’un plan harmonisé ;
- Alléger les obligations d’enregistrement pour les fournisseurs de systèmes d’IA utilisés dans des domaines à haut risque lorsque ces systèmes n’exécutent que des tâches étroites ou procédurales ;
- Centraliser la supervision de nombreux systèmes d’IA (notamment ceux fondés sur des modèles d’IA à usage général ou intégrés aux très grandes plateformes et moteurs de recherche) au sein de l’AI Office ;
- Faciliter la conformité aux règles de protection des données en autorisant, sous garanties appropriées, le traitement de données sensibles aux fins de détection et de correction des biais ;
- Étendre le recours aux bacs à sable réglementaires et aux tests en conditions réelles, en particulier dans des secteurs stratégiques tels que l’automobile, et préparer la mise en place d’un bac à sable européen à l’horizon 2028 ;
- Clarifier l’articulation de l’AI Act avec les autres textes du droit de l’Union et ajuster certaines procédures afin d’en améliorer l’effectivité.
Il convient de souligner que cette initiative constitue une première étape du processus législatif : la proposition sera examinée et débattue par les institutions européennes compétentes. Ce dialogue interinstitutionnel sera déterminant pour l’adoption et le contenu final du dispositif.
Le projet devra ainsi être adopté par le Parlement européen et le Conseil de l’Union européenne avant de pouvoir entrer en vigueur.
- Pour modifier le calendrier applicable aux systèmes d’IA à haut risque, l’Omnibus devra être adopté avant le 2 août 2026.
S’il est adopté à temps, les obligations seront décalées pour permettre la publication des normes harmonisées et laisser aux organisations le temps d’ajuster concrètement leur organisation et leurs outils pour se mettre en conformité.
- Concernant la majorité des obligations de transparence, l’Omnibus ne prévoit ni modification de fond ni changement de calendrier.
En quoi ces éléments faciliteront concrètement la compliance en 2026
Si l’AI Act peut aujourd’hui sembler complexe, les clarifications attendues en 2026, notamment à travers la publication de lignes directrices par la Commission européenne, devraient significativement faciliter la mise en conformité des organisations et réduire l’incertitude liée aux évolutions du calendrier réglementaire, en particulier dans le contexte des discussions autour du paquet Omnibus. Anticiper la conformité à l’AI Act permet ainsi de sécuriser le développement, la mise sur le marché et le déploiement des systèmes d’intelligence artificielle.
Au-delà d’une contrainte juridique, la conformité à l’AI Act devient un levier stratégique de confiance et de compétitivité. En intégrant dès la conception les exigences de gestion des risques, de transparence et d’IA responsable, les organisations développent des produits d’IA plus dignes de confiance, améliorent leur acceptabilité par les parties prenantes et se différencient durablement comme des acteurs de confiance sur le marché européen.
Transformez l’AI Act en avantage concurrentiel
Notre équipe vous aide à transformer une contrainte réglementaire en levier stratégique, en construisant une conformité à la fois robuste, proportionnée et pleinement opérationnelle, adaptée à votre organisation et à vos enjeux métier.