Lexique
Agent
Logiciel envoyé sur un réseau pour effectuer une tâche à la place de l’utilisateur et sans son intervention.
Note : — On utilise, par exemple, les agents pour le filtrage d’informations et la recherche sur l’internet. — Un agent est dit « intelligent » lorsqu’il utilise les techniques de l’intelligence artificielle.
Équivalent étranger : agent
Source : Commission d’enrichissement de la langue française – 50 termes clés de l’intelligence artificielle
Algorithme
Un algorithme est la description d’une suite d’étapes permettant d’obtenir un résultat à partir d’éléments fournis en entrée. Pour qu’un algorithme puisse être mis en œuvre par un ordinateur, il faut qu’il soit exprimé dans un langage informatique, sous la forme d’un logiciel (souvent aussi appelé « application »). Un logiciel combine en général de nombreux algorithmes : pour la saisie des données, le calcul du résultat, leur affichage, la communication avec d’autres logiciels, etc.
Certains algorithmes ont été conçus de sorte que leur comportement évolue dans le temps, en fonction des données qui leur ont été fournies. Ces algorithmes « auto-apprenants » relèvent du domaine de recherche des systèmes experts et de l’IA. Ils sont utilisés dans un nombre croissant de domaines, allant de la prédiction du trafic routier à l’analyse d’images médicales.
Source : CNIL
Ex : Les algorithmes mathématiques permettent de combiner les informations les plus diverses
pour produire une grande variété de résultats : simuler l’évolution de la propagation de la grippe
en hiver, recommander des livres à des clients sur la base des choix déjà effectués par d’autres
clients, comparer des images numériques de visages ou d’empreintes digitales, piloter de façon
autonome des automobiles ou des sondes spatiales, etc.
Apprentissage automatique, apprentissage machine
Processus par lequel un algorithme évalue et améliore ses performances sans l’intervention d’un
programmeur, en répétant son exécution sur des jeux de données jusqu’à obtenir, de manière
régulière, des résultats pertinents.
Note :
— Un algorithme d’apprentissage automatique comporte un modèle dont il modifie les
paramètres, de valeur initiale en général aléatoire, en fonction du résultat constaté.
— L’apprentissage automatique relève de l’intelligence artificielle.
— L’apprentissage automatique est fréquemment utilisé pour le traitement du langage naturel
et la vision par ordinateur, ou pour effectuer des diagnostics et des prévisions.
Équivalent anglais : machine learning, ML
Source : Commission d’enrichissement de la langue française – 50 termes clés de l’intelligence
artificielle
Autorité de surveillance du marché
L’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020 2.
Source : AI Act – Article 3(26)
Autorité notifiante
L’autorité nationale chargée de mettre en place et d’accomplir les procédures nécessaires à l’évaluation, à la désignation et à la notification des organismes d’évaluation de la conformité et à leur contrôle.
Source : AI Act – Article 3(19)
Autorité nationale compétente
Une autorité notifiante ou une autorité de surveillance du marché; en ce qui concerne les systèmes d’IA mis en service ou utilisés par les institutions, organes ou organismes de l’Union, les références aux autorités nationales compétentes ou aux autorités de surveillance du marché dans le présent règlement s’entendent comme une référence au Contrôleur européen de la protection des données.
Source : AI Act – Article 3(48)
Autorité nationale de régulation
Toute entité gouvernementale ou publique indépendante assumant des fonctions et des responsabilités réglementaires pour un secteur spécifique au Royaume d’Arabie saoudite en vertu d’un instrument juridique.
Source: SDAIA AI Ethics Principles
Bac à sable réglementaire de l’IA
Un cadre contrôlé mis en place par une autorité compétente qui offre aux fournisseurs ou fournisseurs potentiels de systèmes d’IA la possibilité de développer, d’entraîner, de valider et de tester, lorsqu’il y a lieu en conditions réelles, un système d’IA innovant, selon un plan du bac à sable pour une durée limitée sous surveillance réglementaire.
Source : AI Act – Article 3(55)
Ex : En 2023, la CNIL a lancé un bac à sable règlementaire (ou « regulatory sandbox ») pour accompagner des projets d’IA visant à améliorer les services publics. Les projets sélectionnés4 vont bénéficier d’un accompagnement personnalisé sur plusieurs mois et de l’expertise de la CNIL, en particulier de son nouveau service de l’IA, sur des questions juridiques et techniques émergentes
Bureau de l’IA
La fonction de la Commission consistant à contribuer à la mise en œuvre, au suivi et à la surveillance des systèmes d’IA et de modèles d’IA à usage général et de la gouvernance de l’IA, établi par la décision de la Commission du 24 janvier 2024 ; les références faites au Bureau de l’IA dans le présent règlement s’entendent comme faites à la Commission.
Source : AI Act – Article 3(47)
Calcul intensif
Ensemble des techniques et des moyens destinés à traiter des applications complexes en faisant appel à des ordinateurs spécialisés dans le traitement rapide de gros volumes de données numériques.
Équivalent anglais : supercomputing
Source : Commission d’enrichissement de la langue française – 50 termes clés de l’intelligence artificielle
Catégories particulières de données à caractère personnel
Les catégories de données à caractère personnel visées à l’article 9, paragraphe 1, du règlement (UE) 2016/6796, à l’article 10 de la directive (UE) 2016/680 7 et à l’article 10, paragraphe 1, du règlement (UE) 2018/1725 8. Ex : il s’agit des données sensibles telles que les origines raciales ou ethniques, les opinions politiques, les convictions religieuses ou philosophiques, les données de santé, les données génétiques, les données biométriques, les données concernant la vie sexuelle ou l’orientation sexuelle, ainsi que les données relatives aux condamnations pénales et aux infractions.
Source : AI Act – Article 3(37)
Composant de sécurité
Un composant d’un produit ou d’un système d’IA qui remplit une fonction de sécurité pour ce produit ou ce système d’IA, ou dont la défaillance ou le dysfonctionnement met en danger la santé et la sécurité des personnes ou des biens.
Source : AI Act – Article 3(14)
Ex : Dans le cas d’un dispositif médical, le logiciel utilisé pour analyser les données servant à recommander une dose de médicament. Sa défaillance pourrait entraîner une surdose ou une sous-dose, mettant en danger la santé du patient.
Consentement éclairé
L’expression libre, spécifique, univoque et volontaire, par un participant, de sa volonté de participer à un essai en conditions réelles particulier, après avoir été informé de tous les éléments de l’essai qui lui permettent de prendre sa décision concernant sa participation.
Source : AI Act – Article 3(59)
Ex : Un institut de recherche mène un essai pour évaluer l’efficacité d’une nouvelle application de soins de santé alimentée par l’IA et conçue pour aider les personnes à gérer les maladies chroniques, telles que le diabète. Avant de s’inscrire à l’étude, chaque participant potentiel reçoit des informations détaillées sur l’objectif de l’essai, les procédures, les risques et les avantages potentiels de la recherche. Ces informations sont présentées de manière claire et compréhensible, en tenant compte des différents niveaux de connaissances en matière de santé et de compétences technologiques des participants. Avoir pris le temps de lire et de comprendre toutes ces informations, et avoir eu l’opportunité de poser des questions, chaque participant est invité à donner son consentement explicite en signant un formulaire de consentement
Cycle de vie d’un système d’IA
Processus cyclique que les projets d’IA sont censés suivre pour pouvoir concevoir, construire et produire un système robuste et sûr qui apporte une valeur commerciale et des informations en adhérant à une méthode normalisée et structurée de gestion de la fourniture et de la mise en œuvre de modèles d’IA.
Source: SDAIA AI Ethics Principles
Déclaration UE de Conformité
Déclaration établie par le fournisseur pour chaque système d’IA à haut risque, attestant de sa conformité aux exigences de l’AI Act. Cette déclaration, lisible par machine et signée, est conservée pendant dix ans après la mise sur le marché ou en service du système. Elle doit être traduite pour les autorités compétentes des États membres concernés et contenir toutes les informations de l’annexe V. Si des systèmes d’IA à haut risque sont soumis à d’autres actes législatifs d’harmonisation de l’Union qui exigent également une déclaration UE de conformité, une seule déclaration UE de conformité est établie au titre de tous les actes législatifs de l’Union applicables au système d’IA à haut risque. Une copie de la déclaration UE de conformité est communiquée, sur demande, aux autorités nationales compétentes concernées.
La déclaration UE de conformité visée à l’article 47 contient l’ensemble des informations suivantes :
- Le nom et le type du système d’IA et toute référence supplémentaire non équivoque permettant l’identification et la traçabilité du système d’IA;
- Le nom et l’adresse du fournisseur ou, le cas échéant, de son mandataire;
- Une attestation certifiant que la déclaration UE de conformité visée à l’article 47 est établie sous la seule responsabilité du fournisseur ;
- Une déclaration attestant que le système d’IA respecte le présent règlement et, le cas échéant, toute autre législation de l’Union applicable prévoyant l’établissement de la déclaration UE de conformité visée à l’article 47;
- Lorsqu’un système d’IA nécessite le traitement de données à caractère personnel, une déclaration qui atteste que ledit système d’IA est conforme aux règlements (UE) 2016/6799 et (UE) 2018/172510 ainsi qu’à la directive (UE) 2016/68011 ;
- Des références aux éventuelles normes harmonisées pertinentes utilisées ou aux éventuelles autres spécifications communes par rapport auxquelles la conformité est déclarée;
- Le cas échéant, le nom et le numéro d’identification de l’organisme notifié, une description de la procédure d’évaluation de la conformité suivie et la référence du certificat délivré;
- Le lieu et la date de délivrance de la déclaration, le nom et la fonction du signataire ainsi que la mention de la personne pour le compte de laquelle ce dernier a signé, et une signature.
Source : AI Act – Article 47 et Annexe V
Déployeur
Une personne physique ou morale, une autorité publique, une agence ou un autre organisme utilisant sous sa propre autorité un système d’IA sauf lorsque ce système est utilisé dans le cadre d’une activité personnelle à caractère non professionnel.
Source : AI Act – Article 3(4)
Ex : Un magasin utilise un outil intelligent de gestion et de surveillance du chauffage, doté de capteurs qui ajustent la température en fonction de l’heure de la journée, pour optimiser le confort des clients et l’efficacité énergétique. En utilisant cet outil, le magasin agit en tant que déployeur de ce système d’IA
Design et conception (du produit d’IA)
Cette phase consiste à définir les objectifs, les fonctionnalités et les exigences du produit d’IA. Les équipes identifient les besoins des utilisateurs, les contraintes techniques, les ressources nécessaires et créent une feuille de route pour le développement.
Ex : Lors de la conception d’un assistant virtuel pour une plateforme de e-commerce, l’équipe de développement définit les objectifs de l’IA, comme améliorer le service client et augmenter les ventes. Ils identifient les fonctionnalités nécessaires, telles que la compréhension du langage naturel et la capacité à recommander des produits, tout en tenant compte des contraintes techniques comme l’intégration avec les systèmes existants et les besoins en puissance de calcul. Une feuille de route est ensuite créée pour guider le développement, incluant les étapes de prototypage, de test et de mise en production.
Développement (du produit d’IA)
C’est la phase où le produit d’IA est effectivement créé. Les développeurs codent les algorithmes, entraînent les modèles d’IA avec des données, effectuent des tests internes et intègrent différentes fonctionnalités selon les spécifications définies lors de la phase de conception.
Ex : Lors du développement d’un assistant virtuel pour un service client, les développeurs créent des algorithmes pour comprendre et répondre aux questions des utilisateurs. Ils entraînent ces algorithmes avec des milliers de conversations réelles, testent la capacité de l’IA à répondre correctement et intègrent des fonctionnalités comme la reconnaissance vocale et l’analyse de sentiment pour améliorer l’expérience utilisateur.
Données biométriques
Les données à caractère personnel résultant d’un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d’une personne physique, telles que des images faciales ou des données dactyloscopiques14.
Source : AI Act – Article 3(34)
Ex : Un système d’IA pour le contrôle d’accès sécurisé à certains locaux utilise les empreintes digitales pour authentifier les employés. Ici, les données biométriques utilisées sont les empreintes digitales. Un système d’IA pour reconnaitre les émotions à partir de la voix. Ici les données biométriques sont la voix d’une personne identifiée ou identifiable.
Droits fondamentaux
Il s’agit des droits et valeurs essentiels consacrés dans la Charte des droits fondamentaux de l’Union européenne et inscrits à l’article 2 du traité sur l’Union européenne :
- Le respect de la dignité humaine
- La liberté
- La démocratie
- L’égalité
- La solidarité
- La citoyenneté
- La justice
- L’État de droit
- Le respect des droits de l’homme, y compris les droits des personnes appartenant à des minorités
Éthique de l’IA
Ensemble de valeurs, de principes et de techniques visant à guider la conduite morale dans le développement et l’utilisation des technologies de l’IA.
Source: SDAIA AI Ethics Principles
Évaluation de la conformité
La procédure permettant de démontrer que les exigences relatives à un système d’IA à haut risque énoncées au chapitre III, section 2, ont été respectées.
Source : AI Act – Article 3
Ex : Une entreprise développant un système d’IA pour détecter des fraudes bancaires doit suivre un processus de gestion des risques, tester le système dans des conditions réelles, et fournir une documentation technique détaillant les mesures de cybersécurité et les performances du système. Cette documentation est soumise à une autorité de certification pour vérifier la conformité avant que le système puisse être utilisé par les banques.
Fournisseur
Une personne physique ou morale, une autorité publique, une agence ou tout autre organisme qui développe ou fait développer un système d’IA ou un modèle d’IA à usage général et le met sur le marché ou met le système d’IA en service sous son propre nom ou sa propre marque, à titre onéreux ou gratuit.
Source : AI Act – Article 3
Ex : Un fabricant de produits de santé développe en interne un chatbot utilisant l’IA pour surveiller les effets secondaires de ses médicaments. En utilisant ses propres ressources informatiques et ses données, ce fabricant est ainsi qualifié de fournisseur car il a conçu et développé le système d’IA en utilisant ses propres données et outils, ou ceux d’un tiers, et met ce système en service sous son propre nom .
Fournisseur en aval
Un fournisseur d’un système d’IA, y compris d’un système d’IA à usage général, qui intègre un modèle d’IA, que le modèle d’IA soit fourni par lui- même ou non, et verticalement intégré ou fourni par une autre entité sur la base de relations contractuelles.
Source : AI Act – Article 3(68)
Ex : Une entreprise spécialisée dans le développement d’assistants virtuels pilotés par l’IA pour diverses applications, telles que le service à la clientèle, la productivité personnelle et les systèmes de maison connectée, agit en tant que fournisseur en aval. Elle propose sa plateforme d’assistant virtuel aux entreprises et aux consommateurs. Dans cet exemple, cette ‘entreprise technologique intègre des modèles d’IA dans sa plateforme
Gouvernance des données
La gouvernance des données est le processus de gestion de la disponibilité, de la facilité d’utilisation, de l’intégrité et de la sécurité des données dans les organisations et les systèmes, sur la base de normes et de politiques de données qui contrôlent également l’utilisation des données.
Source: SDAIA AI Ethics Principles
Hypertrucage (« Deep fake »)
Une image ou un contenu audio ou vidéo généré ou manipulé par l’IA, présentant une ressemblance avec des personnes, des objets, des lieux des entités ou événements existants et pouvant être perçu à tort par une personne comme authentique ou véridique.
Source : AI Act – Article 3(60)
Ex : Une photo sur laquelle le visage d’Angela Merkel est remplacé par celui de Donald Trump. Autre exemple, une vidéo circule sur les réseaux sociaux montrant un politicien prononçant un discours controversé. Cependant, en réalité, cette vidéo est un « deep fake » créé par une IA, utilisant des images et des sons authentiques du politicien pour manipuler son discours. Ce faux contenu, très réaliste, peut induire en erreur les spectateurs, leur faisant croire que le politicien a réellement dit ces mots, alors que ce n’est pas le cas.
Identification biométrique
La reconnaissance automatisée de caractéristiques physiques, physiologiques, comportementales ou psychologiques humaines aux fins d’établir l’identité d’une personne physique en comparant ses données biométriques à des données biométriques de personnes stockées dans une base de données.
Source : AI Act – Article 3(35)
Ex : Lorsqu’un employé arrive au travail, il place son doigt sur un scanner d’empreintes digitales. Le système compare instantanément cette empreinte à celles stockées dans une base de données des employés pour confirmer son identité et lui permettre d’accéder aux locaux de l’entreprise.
Importateur
Une personne physique ou morale située ou établie dans l’Union qui met sur le marché un système d’IA qui porte le nom ou la marque d’une personne physique ou morale établie dans un pays tiers.
Source : AI Act – Article 3(6)
Ex : Une entreprise française spécialisée dans les énergies renouvelables achète un logiciel de gestion de la consommation énergétique développé par une société américaine. Ce logiciel, sous la marque de la société américaine, est ensuite vendu et utilisé par la société française dans toute l’Europe pour optimiser les réseaux électriques. Dans ce cas, la société française agit en tant qu’importateur du logiciel d’IA.
Intelligence artificielle embarquée (IA embarquée)
Dispositif d’intelligence artificielle intégré dans un objet connecté, qui lui permet de traiter en temps réel les données qu’il collecte pour déclencher la prise automatique de décisions. Note : L’intelligence artificielle embarquée utilise l’informatique en périphérie.
Équivalent anglais : artificial intelligence of things, AIoT, edge AI, edge artificial intelligence
Source : Commission d’enrichissement de la langue française – 50 termes clés de l’intelligence artificielle
Intelligence artificielle générative (IA générative)
Branche de l’intelligence artificielle mettant en œuvre des modèles génératifs, qui vise à produire des contenus textuels, graphiques ou audiovisuels.
Équivalent anglais : GenAI, generative AI, generative artificial intelligence.
Source : Commission d’enrichissement de la langue française – 50 termes clés de l’intelligence artificielle
Lac de données
Infrastructure logicielle qui collecte des mégadonnées dans leur format d’origine, généralement en continu, et les associe automatiquement à des métadonnées qui permettent d’en préparer l’exploitation ; par extension, ces mégadonnées elles-mêmes.
Équivalent anglais : data lake
Source : Commission d’enrichissement de la langue française – 50 termes clés de l’intelligence artificielle
Maîtrise de l’IA
Les compétences, les connaissances et la compréhension qui permettent aux fournisseurs, aux déployeurs et aux personnes concernées, compte tenu de leurs droits et obligations respectifs dans le contexte du présent règlement, de procéder à un déploiement des systèmes d’IA en toute connaissance de cause, ainsi que de prendre conscience des possibilités et des risques que comporte l’IA, ainsi que des préjudices potentiels qu’elle peut causer.
Source : AI Act – Article 3(56)
Marquage CE
Un marquage par lequel le fournisseur indique qu’un système d’IA est conforme aux exigences du chapitre III, section 2,22 et d’autres actes législatifs d’harmonisation de l’Union applicables qui en prévoient l’apposition.
Source : AI Act – Article 3(24)
Ex : Une entreprise développe un logiciel de reconnaissance faciale destiné à être utilisé par des institutions publiques pour des raisons de sécurité. Avant de commercialiser ce logiciel, l’entreprise doit s’assurer qu’il respecte toutes les exigences de sécurité, de transparence et de protection des données définies par l’AI Act. Une fois que le logiciel est certifié conforme à ces exigences, il peut être marqué CE. Ce marquage CE indique aux utilisateurs finaux que le logiciel a été évalué et jugé conforme aux normes de l’UE, garantissant ainsi sa fiabilité et sa sécurité.
Méthode de l’équipe rouge (essais « Red Team »)
La méthode de l’équipe rouge consiste en des tests de sécurité avancés où une équipe spécialisée simule des attaques de pirates informatiques pour évaluer la résilience d’un système de sécurité. Ces tests utilisent des techniques de piratage éthique pour reproduire les tactiques, techniques et procédures d’un attaquant réel, incluant des tentatives d’intrusion, des attaques de phishing23 et des analyses de vulnérabilités. L’objectif est de découvrir et de corriger les failles de sécurité avant qu’un véritable attaquant ne puisse les exploiter.
Sources : Red Team – NIST Glossary ; Red teaming – CNIL
Modèle d’IA
Le modèle d’IA est la construction mathématique générant une déduction ou une prédiction à partir de données d’entrée.
Ex : Sur un chantier de construction, un modèle d’IA peut être utilisé pour détecter si les travailleurs portent leurs casques de sécurité. En utilisant des images en temps réel capturées par des caméras, le modèle d’IA analyse ces images et en déduit la présence ou l’absence de casques sur les travailleurs. Si le modèle détecte qu’un travailleur n’a pas de casque, une alerte est envoyée au responsable du site pour qu’il puisse intervenir rapidement et assurer la sécurité de tous les travailleurs.
Source : CNIL
Modèle d’IA à usage général (modèle « GPAI »)
Un modèle d’IA, y compris lorsque ce modèle d’IA est entraîné à l’aide d’un grand nombre de données utilisant l’auto-supervision à grande échelle24, qui présente une généralité significative et est capable d’exécuter de manière compétente un large éventail de tâches distinctes, indépendamment de la manière dont le modèle est mis sur le marché, et qui peut être intégré dans une variété de systèmes ou d’applications en aval25, à l’exception des modèles d’IA utilisés pour des activités de recherche, de développement ou de prototypage avant leur publication sur le marché.
Source : AI Act – Article 3(63)
Ex : Un modèle de traitement du langage naturel, tel que GPT-4 est un modèle d’IA à usage général qui peut être utilisé pour rédiger des articles, générer des résumés de documents, répondre à des questions, traduire des textes et bien plus encore. Ce modèle peut être intégré dans diverses applications, comme des assistants virtuels, des logiciels de traduction ou des outils de rédaction assistée par l’IA, et est disponible sur le marché pour un usage commercial.
Modification substantielle
Une modification apportée à un système d’IA après sa mise sur le marché ou sa mise en service, qui n’est pas prévue ou planifiée dans l’évaluation initiale de la conformité réalisée par le fournisseur et qui a pour effet de nuire à la conformité de ce système aux exigences énoncées au chapitre III, section 2 26 , ou qui entraîne une modification de la destination pour laquelle le système d’IA a été évalué.
Source : AI Act – Article 3(23)
Ex : Une entreprise développe un système d’IA pour la reconnaissance faciale destiné à des applications de sécurité dans des bâtiments privés. Plus tard, elle décide de modifier ce système pour être utilisé dans des lieux publics pour la surveillance de masse. Cette nouvelle utilisation change la destination initiale du système, augmentant considérablement les risques de surveillance abusive et de violation de la vie privée, ce qui constitue une modification substantielle.
Moissonnage, moissonnage des données
Extraction automatisée de contenus de sites de la toile, pratiquée en vue d’un traitement spécifique.
Note : Le moissonnage de données est utilisé par exemple dans le domaine commercial pour établir des comparaisons de prix ou évaluer la réputation d’une marque.
Équivalent anglais : web harvesting, web scraping
Source : Commission d’enrichissement de la langue française – 50 termes clés de l’intelligence artificielle
Norme harmonisée
Une norme harmonisée au sens de l’article 2, paragraphe 1, point c), du règlement (UE) nº 1025/2012.
Source : AI Act – Article 3(27) Le règlement (UE) nº 1025/2012 relatif à la normalisation européenne définit une norme harmonisée comme « une norme européenne adoptée sur la base d’une demande formulée par la Commission pour l’application de la législation d’harmonisation de l’Union ».
Ex : Une norme harmonisée pourrait être la norme EN 301 549, qui spécifie les exigences en matière d’accessibilité des produits et services numériques (TIC). Cette norme a été élaborée à la demande de la Commission européenne pour garantir que les sites web et applications mobiles soient accessibles à tous, y compris aux personnes handicapées.
Opérateur
Un fournisseur, fabricant de produits, déployeur, mandataire, importateur ou distributeur.
Source : AI Act – Article 3(8)
Opération en virgule flottante ou « FLOP »
Toute opération ou assignation mathématique impliquant des nombres en virgule flottante, qui constituent un sous-ensemble des nombres réels généralement représentés sur un ordinateur par un entier de précision fixe suivi d’un exposant entier d’une base fixe.
Source : AI Act – Article 3(67)
Ex : Lorsqu’un logiciel de prévision météorologique calcule les températures futures, il utilise des opérations en virgule flottante. Par exemple, pour déterminer la température moyenne entre 23.5°C, 24.1°C et 22.8°C, le logiciel additionne ces valeurs en virgule flottante et divise le résultat par trois. Ces calculs permettent d’obtenir des résultats précis et nécessaires pour des prévisions fiables.
Organisme notifié
Un organisme d’évaluation de la conformité notifié en application du présent règlement et d’autres actes législatifs d’harmonisation de l’Union pertinents.
Source : AI Act – Article 3(22)
Pratiques interdites ou inacceptables en matière d’IA (« Système d’IA interdits »)
Les systèmes d’IA présentant un risque inacceptable pour les droits fondamentaux, la sécurité, ou les intérêts des individus sont spécifiquement prohibés en raison de leur potentiel à causer des préjudices importants ou à exploiter les vulnérabilités des personnes de manière inadéquate. Les systèmes d’IA impliquant les pratiques suivantes sont interdits :
• Techniques subliminales manipulatrices ou trompeuses : Utilisation de techniques agissant en dessous du seuil de conscience d’une personne pour manipuler ou tromper, susceptible de causer ou causant des préjudices importants aux personnes concernées.
• Exploitation des vulnérabilités : Utilisation de systèmes d’IA exploitant les vulnérabilités des personnes en raison de leur âge, de leur handicap ou de leur situation socioéconomique, susceptible de causer ou causant des préjudices importants aux personnes concernées.
• Notation sociale : Évaluation ou classification des comportements sociaux ou des caractéristiques personnelles ou de personnalités connues, déduites ou prédites par les autorités publiques ou privées pour prendre des décisions qui impactent de manière significative les droits et libertés des individus.
• Inférence émotionnelle : Utilisation de systèmes d’IA pour inférer les émotions sur le lieu de travail ou dans les établissements d’enseignement, sauf pour des raisons médicales ou de sécurité.
• Catégorisation biométrique des attributs sensibles : Systèmes d’IA destinés à catégoriser les personnes en fonction d’attributs sensibles tels que l’origine raciale, les opinions politiques, les croyances religieuses ou philosophiques, l’orientation sexuelle, etc.
• Moissonnage non ciblé d’images faciales : Collecte non ciblée d’images faciales à partir d’internet ou de systèmes de vidéosurveillance pour constituer ou élargir des bases de données de reconnaissance faciale.
• Profilage pour évaluer ou prédire la commission d’un crime : Utilisation de systèmes d’IA pour profiler des individus dans le but d’évaluer ou de prédire leur potentiel à commettre des crimes.
• Identification biométrique à distance en temps réel : Utilisation de systèmes d’identification biométrique à distance en temps réel dans des espaces accessibles au public par les forces de l’ordre, sauf dans des cas exceptionnels strictement définis par la loi.
Source : AI Act – Article 5 ; Article 113 Pour en savoir plus, nous vous invitons à lire notre article sur les systèmes d’IA interdits.
Produit d’IA
Dans le cadre de la Solution Naaia, le terme « produit d’IA » renvoie soit à un système d’IA, soit à un modèle d’IA.
Profilage
Le profilage au sens de l’article 4, point 4), du règlement (UE) 2016/67930.
Source : AI Act – Article 3(52) Le Règlement (UE) 2016/679), Article 4(4), définit le profilage comme « toute forme de traitement automatisé de données à caractère personnel consistant à utiliser ces données à caractère personnel pour évaluer certains aspects personnels relatifs à une personne physique, notamment pour analyser ou prédire des éléments concernant le rendement au travail, la situation économique, la santé, les préférences personnelles, les intérêts, la fiabilité, le comportement, la localisation ou les déplacements de cette personne physique ».
Ex : Une entreprise utilise un logiciel pour analyser les données de navigation internet de ses clients. Grâce à cet outil, elle peut prédire les produits qui pourraient les intéresser, comme des vêtements ou des gadgets technologiques, en se basant sur leur historique d’achats et leurs recherches en ligne. Ce processus de prédiction et de personnalisation des offres repose sur le profilage, car il évalue les préférences personnelles et les intérêts de chaque client de manière automatisée.
Risque limité
Les systèmes d’IA qui présentent des risques limités, tels que les programmes techniques liés à la fonction, au développement et à la performance, sont soumis à l’application des principes d’éthique de l’IA mentionnés dans le présent document (AI Ethics Principles « Principes d’éthique de l’IA »)
Source: SDAIA AI Ethics Principles
Risque inacceptable
- Le risque posé par les systèmes d’IA est inacceptable lorsque ces systèmes contreviennent aux valeurs de l’UE et portent atteinte aux droits fondamentaux. Ex : Un système de reconnaissance faciale utilisé par une entreprise pour surveiller ses employés en temps réel, qui conduit à une surveillance intrusive et continue sans leur consentement, constitue un risque inacceptable. Cela porte atteinte à la vie privée des employés et contrevient aux valeurs de respect de la vie privée et des droits fondamentaux de l’UE.
- Les systèmes d’IA qui présentent un « risque inacceptable » pour la sécurité, les moyens de subsistance et les droits des personnes, tels que ceux liés au profilage social, à l’exploitation des enfants ou à la distorsion des comportements susceptibles de se produire, ne sont pas autorisés. Source: SDAIA AI Ethics Principles
Risque systémique
Un risque spécifique aux capacités à fort impact des modèles d’IA à usage général, ayant une incidence significative sur le marché de l’Union en raison de leur portée ou d’effets négatifs réels ou raisonnablement prévisibles sur la santé publique, la sûreté, la sécurité publique, les droits fondamentaux ou la société dans son ensemble, pouvant être propagé à grande échelle tout au long de la chaîne de valeur.
Source : AI Act – Article 3(65)
Ex : Un exemple de risque systémique est l’utilisation généralisée d’un modèle d’IA dans le secteur bancaire pour évaluer les demandes de prêt. Si ce modèle présente un biais systématique contre certains groupes démographiques, cela pourrait entraîner une exclusion massive de ces groupes de l’accès au crédit, affectant ainsi leur capacité à investir dans des biens immobiliers, à créer des entreprises ou à accéder à des ressources financières essentielles, avec des répercussions négatives sur l’économie et la société dans son ensemble.
Sanctions
L’AI Act prévoit des sanctions strictes en cas de violation des obligations énoncées dans le texte :
1) Non-respect des interdictions relatives aux pratiques d’IA interdites (visées à l’article 5 de l’AI Act ) :
• Jusqu’à 35 millions d’euros, ou 7% du chiffre d’affaires annuel mondial total réalisé au cours de l’exercice précédent, si l’auteur de l’infraction est une entreprise.
2) Non-conformité avec l’une des dispositions relatives aux opérateurs ou aux organismes notifiés (autres que celles énoncées à l’article 5) :
• Jusqu’à 15 millions d’euros, ou 3% du chiffre d’affaires annuel mondial total réalisé au cours de l’exercice précédent, si l’auteur de l’infraction est une entreprise.
3) Fourniture d’informations inexactes, incomplètes ou trompeuses aux organismes notifiés ou aux autorités nationales compétentes en réponse à une demande :
• Jusqu’à 7,5 millions d’euros, ou 1% du chiffre d’affaires annuel mondial total réalisé au cours de l’exercice précédent, si l’auteur de l’infraction est une entreprise. Dans chaque cas, le montant le plus élevé entre le montant fixe et le pourcentage du chiffre d’affaires sera retenu. Pour les petites et moyennes entreprises (PME), y compris les jeunes pousses (startups), les sanctions doivent être proportionnées afin de tenir compte de leur viabilité économique. Ainsi, le montant le plus faible sera appliqué pour ces entreprises.
Source : AI Act – Article 99
Système de catégorisation biométrique
Un système d’IA destiné à affecter des personnes physiques à des catégories spécifiques sur la base de leurs données biométriques, à moins que cela ne soit accessoire à un autre service commercial et strictement nécessaire pour des raisons techniques objectives.
Source : AI Act – Article 3(40)
Ex : Une application de sécurité utilise un système de catégorisation biométrique pour identifier les employés en fonction de leurs empreintes digitales et les assigner automatiquement à différents niveaux d’accès au sein de l’entreprise. Cela permet de s’assurer que seules les personnes autorisées peuvent entrer dans certaines zones sensibles.
Système d’IA (« SIA »)
Un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels.
Source : AI Act – Article 3(1)
Système d’IA à usage général (« GPAI »)
Ensemble de modèles prédictifs et d’algorithmes avancés qui peuvent être utilisés pour analyser des données et prédire l’avenir ou faciliter la prise de décision pour des événements futurs projetés.
Source: SDAIA AI Ethics Principles
Ex : Sur une plateforme de streaming, un SIA analyse les préférences de visionnage des utilisateurs (entrées) pour leur recommander des films et des séries (sorties) qui correspondent à leurs goûts. Ce système adapte ses recommandations en temps réel en fonction des nouvelles données qu’il reçoit, comme les nouveaux films regardés par l’utilisateur.
Pour en savoir plus, lisez notre article : Qu’est-ce qu’un système d’IA ?
Système de reconnaissance des émotions
Un système d’IA permettant la reconnaissance ou la déduction des émotions ou des intentions de personnes physiques sur la base de leurs données biométriques. Cette notion renvoie à des émotions ou des intentions telles que le bonheur, la tristesse, la colère, la surprise, le dégoût, la gêne, l’excitation, la honte, le mépris, la satisfaction et l’amusement. Cette notion ne recouvre pas les états physiques, tels que la douleur ou la fatigue, qui comprennent, par exemple, des systèmes utilisés pour déceler l’état de fatigue des pilotes ou des conducteurs professionnels aux fins de la prévention des accidents. Elle ne recouvre pas non plus la simple détection d’expressions, de gestes ou de mouvements dont l’apparence est immédiate, à moins que ceux-ci ne soient utilisés pour identifier ou déduire des émotions. Ces expressions peuvent être des expressions faciales toutes simples telles qu’un froncement de sourcils ou un sourire, ou des gestes tels qu’un mouvement de mains, de bras ou de tête, ou encore des caractéristiques de la voix d’une personne, comme le fait de parler fort ou de chuchoter.
Source: AI Act Article 3(39) ; Considérant 18
Système d’IA à haut risque
Un système d’IA est considéré comme à haut risque si son utilisation peut entraîner des conséquences importantes sur les droits fondamentaux, la santé, la sécurité ou les intérêts légaux des personnes concernées. Les systèmes d’IA à haut risque sont principalement ceux qui :
1) Sont eux-mêmes des produits soumis à des réglementations de l’UE nécessitant une évaluation de conformité par des tiers avant leur mise sur le marché ou leur mise en service. Cela inclut des domaines comme les dispositifs médicaux, les machines industrielles, et les véhicules.
2) Sont destinés à être utilisés comme composants de sécurité dans des produits soumis aux mêmes réglementations précitées.
3) Sont spécifiquement listés dans l’Annexe III de l’AI Act, couvrant l’un des domaines suivants :
• La biométrie32 (dans la mesure où l’utilisation du SIA est autorisée par le droit de l’Union ou le droit national applicable);
• Les infrastructures critiques (e.g., l’approvisionnement en eau, gaz, électricité) ;
• L’éducation et la formation professionnelle (e.g., systèmes d’admission ou d’évaluation des étudiants) ;
• L’emploi, la gestion de la main-d’œuvre et l’accès à l’emploi indépendant (e.g., logiciels de recrutement) ;
• L’accès et le droit aux services privés essentiels et aux services publics et prestations sociales essentiels
• La répression (dans la mesure où l’utilisation du SIA est autorisée par le droit de l’Union ou le droit national applicable)
• La migration, l’asile et la gestion des contrôles aux frontières (dans la mesure où l’utilisation du SIA est autorisée par le droit de l’Union ou le droit national applicable)
• L’administration de la justice et des processus démocratiques.
Les systèmes d’IA à haut risque doivent respecter des exigences strictes en matière de gestion des risques, de qualité des données, de transparence, de surveillance humaine et de précision. Les obligations les concernant sont opposables dans les 24 mois (2 août 2026) suivant l’entrée en vigueur de l’AI Act.
Cependant, pour les SIA à haut risque déjà couverts par une législation sectorielle de l’UE, les obligations les concernant sont opposables dans les 36 mois (2 août 2027) suivant l’entrée en vigueur de l’AI Act.
Source : AI Act – Article 6 ; Article 113 ; Annexe I, Annexe III
Les systèmes d’IA qui présentent des « hauts risques » pour les droits fondamentaux doivent faire l’objet d’évaluations préalables et postérieures à la conformité, et en plus d’adhérer à l’éthique, les exigences statutaires pertinentes doivent être prises en compte.
Source: SDAIA AI Ethics Principles
Système d’IA avec obligations particulières de transparence
Les systèmes d’IA avec obligations particulières de transparence sont ceux qui interagissent directement avec des personnes physiques et qui ne sont ni à risque inacceptable, ni à haut risque. Ces systèmes imposent des obligations de transparence spécifiques, nécessitant que les utilisateurs soient informés lorsqu’ils interagissent avec une IA ou lorsqu’ils sont exposés à des contenus générés ou modifiés par une IA.
Ex : Lors de l’utilisation de systèmes d’IA tels que les chatbots (agents conversationnels) ou les deepfakes, les personnes doivent être informées qu’ils interagissent avec une machine afin qu’ils puissent prendre une décision éclairée de continuer ou de prendre du recul. Les fournisseurs devront également veiller à ce que le contenu généré par l’IA soit identifiable.
Source : AI Act – Article 50 ; Article 113
Système d’IA à risque minime
Les systèmes d’IA à risque minime sont ceux qui ne présentent ni un risque inacceptable, ni avec obligations particulières de transparence, et qui ne sont pas catégorisés comme à haut risque. Ces systèmes incluent des applications courantes et peu intrusives telles que les filtres anti-spam ou les jeux vidéo compatibles avec l’IA. Ils sont conçus pour fonctionner de manière sécurisée sans imposer de menaces significatives aux droits fondamentaux, à la sécurité ou aux intérêts des individus.
Système d’IA présentant un risque
On entend par systèmes d’IA présentant un risque, un « produit présentant un risque » au sens de l’article 3, point 19), du règlement (UE) 2019/102033, dans la mesure où ils présentent des risques pour la santé ou la sécurité, ou pour les droits fondamentaux, des personnes.
Source : AI Act – Article 79