L’AI Act, un nouveau cadre réglementaire pour l’IA

Après plusieurs années de négociations, le Parlement européen est sur le point d’adopter un texte historique sur l’intelligence artificielle (“IA”) . L’AI Act (ou règlement européen sur l’intelligence artificielle) devient la première législation au monde à encadrer l’IA, faisant de l’Union européenne une véritable pionnière dans ce domaine. L’objectif de ce texte innovant? Garantir la sécurité des citoyens et la protection des droits fondamentaux, tout en encourageant l’innovation et le développement d’une IA de confiance.


L’AI Act, premier texte au monde à réguler l’intelligence artificielle

Si le concept de l’intelligence artificielle ne date pas d’hier, les dernières avancées technologiques l’ont récemment propulsé sur le devant de la scène ! De plus en plus performants, les systèmes d’IA (SIA) font en effet partie de notre quotidien. Et ils permettent aujourd’hui de résoudre des tâches complexes dans de nombreux secteurs et industries (le marketing et la logistique par exemple, mais aussi la santé ou la finance…).

En perpétuelle progression, cette technologie d’avenir offre évidemment aux entreprises de véritables opportunités de développement. Mais elle soulève également de nombreuses questions, aussi bien sur le plan éthique que juridique. Droits d’auteur et protection des données personnelles, erreurs et fausses informations, discrimination ou impact sur l’emploi… Pour protéger ses citoyens contre les risques de l’IA, l’Union européenne a décidé d’encadrer et de réguler cette technologie.

Après plusieurs années de discussions et de négociations, l’AI Act (Artificial Intelligence Act) a été validé début février par tous les États membres de l’Union européenne. Première règlementation sur l’IA au monde, le règlement européen sur l’intelligence artificielle vise à garantir l’utilisation d’une IA responsable, saine et éthique, sans pour autant brider l’innovation.


Que prévoit la loi ?

L’AI Act classe les systèmes d’IA en fonction de leurs risques potentiels et de leur niveau d’impact. Le texte distingue quatre niveaux de risques, et prévoit une catégorie spécifique pour les modèles d’IA  à usage général. Le système d’IA est ensuite soumis à des règles plus ou moins strictes et contraignantes, selon son niveau de risque.

Les systèmes d’IA à risque inacceptable

L’AI Act rappelle d’abord que les systèmes d’IA à risque inacceptable sont interdits. Le règlement vise ici tous les systèmes qui pourraient menacer la sécurité, les moyens de subsistance et les droits de personnes, comme par exemple :

  • les systèmes de notation sociale;
  • les systèmes de catégorisation biométrique (qui utilisent des caractéristiques sensibles comme l’orientation sexuelle, la race ou les opinions religieuses ou politiques);
  • les systèmes qui déploient des techniques subliminales ou trompeuses pour manipuler le comportement humain, ou exploiter les vulnérabilités des personnes.

Les systèmes d’IA à haut risque (ou risque élevé)

L’AI Act s’intéresse principalement aux applications jugées à haut risque, qu’il soumet à des exigences légales spécifiques. Il s’agit ici des systèmes d’IA utilisés dans des domaines sensibles, comme l’éducation, l’emploi ou le maintien de l’ordre :

  • un système déterminant l’accès, l’admission ou l’affectation aux établissements d’enseignement et de formation professionnelle ;
  • un outil de balayage de CV pour classer des candidats pendant le recrutement ;
  • un système de reconnaissance des émotions lorsqu’il n’est pas classé dans les SIA interdits;
  • un système d’évaluation de la solvabilité (sauf en cas de détection de fraude) ;

Les fournisseurs de ces systèmes d’IA doivent se conformer à certaines contraintes et à des exigences strictes (, prévoir l’enregistrement des SIA  dans une base de données européenne , mettre en place un système de gestion des risques et une surveillance humaine…).

Les systèmes d’IA à  risque limité

Le texte vise ensuite les systèmes d’IA à risque limité, qui profitent d’un cadre réglementaire plus souple.

Les SIA à risque limité sont surtout soumis à des obligations de transparence, qui visent également à assurer le respect du droit d’auteur. Les utilisateurs de ces systèmes doivent notamment avoir conscience qu’ils interagissent avec l’IA (par exemple, lorsqu’ils échangent avec un chatbot).

Les systèmes d’IA à risque minimal

L’AI Act ne réglemente pas les applications qui présentent un risque minime, c’est-à-dire celles qui ne sont pas expressément interdites ou répertoriées comme étant à haut risque. Il s’agit par exemple des jeux vidéo compatibles avec l’IA, ou des filtres anti-spam.

Les systèmes d’IA à usage général

Selon l’AI Act, les fournisseurs de modèles GPAI (General Purpose AI) doivent également respecter un certain nombre de règles. Un système GPAI est un système d’IA basé sur un modèle d’IA à usage général, qui peut servir à des fins diverses. Il peut être destiné à une utilisation directe ou intégré à un autre système d’IA.

En plus de se conformer à la directive sur les droits d’auteur, les fournisseurs de modèles GPAI doivent fournir certains documents (une documentation technique, des instructions d’utilisation, un résumé du contenu utilisé pour la formation du modèle). Et ceux qui présentent un risque systémique sont soumis à des exigences supplémentaires.


Quand le texte sera-t-il appliqué ?

La mise en œuvre de l’AI Act sera supervisée par le Bureau  européen de l’IA. Le texte sera  applicable à tous les opérateurs de systèmes d’IA conçus, déployés et utilisés au sein de l’Union européenne (fournisseurs, importateurs, distributeurs et déployeurs). Ceux qui ne respecteront pas ces nouvelles règles s’exposeront à d’importantes sanctions financières (jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel). C’est la raison pour laquelle l’AI Act fait aujourd’hui figure de référence mondiale en matière de régulation de l’intelligence artificielle

Le règlement européen a été voté le 13 mars dernier et sera adopté en séance plénière sans vote le 22 avril. Il entrera en vigueur 20 jours après sa publication au Journal officiel européen. Il  sera pleinement applicable 24 mois après son entrée en vigueur, avec quelques délais spécifiques pour la mise en conformité. Les systèmes d’IA à risque inacceptable seront par exemple interdits 6 mois après son entrée en vigueur (au plus tard). Le calendrier prévoit également que les règles concernant l’IA à usage général devront être mises en place dans les 12 mois à compter de l’entrée en vigueur du règlement . Pour être prêtes à temps, les organisations ont donc tout intérêt à anticiper l’application de l’AI Act

Premier AIMS® du marché en Europe, Naaia permet de convertir la contrainte règlementaire en une opportunité stratégique pour l’entreprise. Solution de pilotage de la conformité et de la gestion des risques des systèmes d’IA, elle permet notamment de répondre aux besoins de mise en conformité et transforme les obligations réglementaires en actions concrètes pour les clients. Contactez dès à présent nos équipes !