À mesure que 2025 s’annonce comme « l’année des agents d’IA », la question de leur encadrement devient centrale. Sans désigner explicitement les agents d’IA, l’AI Act esquisse déjà les perspectives de gouvernance, notamment en termes de transparence et de responsabilité partagée tout au long de la chaîne de valeur.
1. Présentation des agents d’IA
Bien que les agents d’IA ne constituent pas une catégorie distincte au titre du règlement européen sur l’IA (ci-après dénommé “AI Act”), la Commission a clarifié que les agents peuvent être tenus de se conformer aux exigences applicables aux systèmes d’IA et/ou aux obligations imposées aux fournisseurs de modèles d’IA à usage général.
Les agents relèvent alors de la catégorie des systèmes d’IA au regard des critères qui en déterminent la qualification :
- Système automatisé ;
- Conçu pour fonctionner à différents niveaux d’autonomie (entièrement guidés par des instructions humaines, semi-autonomes, prise de décision et exécution sans supervision) ;
- Qui peut faire preuve d’une capacité d’adaptation (apprentissage, ajustement amélioration même si cela n’est pas un critère déterminant d’un système d’IA) ;
- Et qui déduit la manière de générer des sorties qui peuvent influencer les environnements physiques et virtuels. (planification du déplacement d’une voiture ou d’un robot, ajustement d’un portefeuille de trading, etc.)
Néanmoins, les agents IA présentent certaines caractéristiques spécifiques :
- Ils reposent sur un modèle d’IA poursuivant un objectif défini ou non, n’ayant pas fait l’objet de développement supplémentaire ou modification significative
- Ils sont accessibles par le biais d’un studio dans lequel l’utilisateur peut éditer leurs paramètres
- Ils sont paramétrés dans le but d’automatiser une tâche complexe, contextualisée et moins procédurale, de prendre des décisions et d’exécuter des actions sans nécessairement recourir à l’intervention humaine
Par exemple :
- Un système d’IA de traduction automatique classique, comme DeepL ou Google Translate, traduit chaque message séparément. Lorsqu’un client écrit « No puedo acceder a mi cuenta », le système renvoie « I can’t access my account ». Il ne sait pas que le message vient d’un client, ne reconnaît pas le ton à adopter, n’applique pas le vocabulaire interne de l’entreprise et ne garde aucune mémoire du fil de la conversation. Il traduit du texte, pas une interaction.
- À l’inverse, un agent d’IA de traduction est spécifiquement conçu pour gérer les échanges client–service client. Il détecte la langue du message, choisit l’outil de traduction optimal pour du texte conversationnel, applique le glossaire de l’entreprise (“account” → “profil utilisateur”), adapte le ton au style de la marque, vérifie la cohérence avec les messages précédents et, si besoin, signale un cas sensible à un agent humain. Enfin, il renvoie la réponse traduite dans le bon canal (chat, email, CRM). Contrairement au système, l’agent est construit pour comprendre le contexte métier, maintenir la cohérence et améliorer la qualité globale de l’expérience client.
L’encadrement des agents d’IA demeure encore flou, en l’absence de cadre juridique ou normatif clairement défini. Des orientations sont donc attendues à deux niveaux :
- D’une part, les régulateurs pourraient préciser dans les mois à venir les conditions de développement, de supervision et de sécurité applicables aux agents IA.
- D’autre part, les fournisseurs de modèles d’IA seront amenés à formaliser des politiques d’utilisation agentique à valeur contractuelle, définissant clairement les droits, obligations et responsabilités associés à l’usage de leurs modèles, ainsi que les limites d’autonomie accordées aux agents déployés.
| Focus : L’autonomie en IA L’autonomie d’un système d’IA désigne le degré selon lequel un système peut apprendre ou agir sans intervention humaine, à la suite de la délégation d’autonomie et de l’automatisation des processus par les humains. L’autonomie constitue un élément clé qui différencie les agents d’IA des systèmes d’IA traditionnels. Un système d’IA exécute généralement des tâches sur la base d’instructions humaines précises ou de paramètres définis à l’avance. À l’inverse, un agent d’IA présente généralement un degré d’autonomie plus élevé : il peut percevoir son environnement, analyser les informations disponibles, prendre certaines décisions et agir sans intervention humaine directe. Ce niveau d’autonomie lui permet d’adapter ses actions à des situations non prévues initialement, ce qui en fait un système capable d’interagir de manière plus dynamique et contextuelle avec son environnement. |
| Focus : L’IA agentique L’IA agentique est un système d’intelligence artificielle capable d’atteindre un objectif précis avec une supervision limitée et se compose d’agents IA. C’est donc un système global doté de capacités d’autonomie et de coordination. Dans un système multi-agent, chaque agent exécute une sous-tâche spécifique pour atteindre l’objectif demandé et leurs efforts sont coordonnés grâce à des fonctionnalités d’orchestration de l’IA. |
2. Les risques spécifiques liés aux agents d’intelligence artificielle
2.1. Comprendre la nature des nouveaux risques
Les agents d’IA amplifient certains risques déjà connus des modèles à usage général (GPAI) et en introduisent de nouveaux liés à leur autonomie et à leur capacité de prendre des actions plus englobantes et au but (end-to-end decision making capacities).
Leur fonctionnement peut générer des effets imprévus, difficiles à contrôler ou à superviser.
Quelques exemples suffisent à en mesurer l’ampleur :
- Manque de transparence et dissimulation : difficulté à détecter certaines intentions ou à maintenir une supervision humaine efficace ;
- Automatisation non contrôlée : exécution de tâches sans validation ni contrôle humain suffisant ;
- Perte de contrôle : comportements indésirables en cas de défaillance, de cyberattaque ou d’erreur de modèle ;
- Manipulation psychologique : planification autonome et comportements anthropomorphiques pouvant influencer les utilisateurs, notamment les publics vulnérables ;
- Amplification de biais : reproduction ou aggravation des faiblesses du modèle sous-jacent.
2.2. Les deux mécanismes fondamentaux de risque
Deux fonctions structurantes sont au cœur des risques propres aux agents IA :
2.2.1. La planification autonome et exécution end-to-end de tâches complexes
Les agents peuvent fonctionner de manière autonome pour planifier et réaliser des tâches complexes dans un processus automatisé, de bout en bout.
Cette autonomie étendue a deux conséquences majeures :
- Elle retarde la détection d’un comportement déviant, car les écarts d’action peuvent se produire avant toute intervention humaine ;
- Elle multiplie les effets en cascade, où chaque décision erronée entraîne des conséquences exponentielles sur l’environnement.
2.2.2. L’interaction directe avec le monde réel
Les agents d’IA ne se contentent plus de générer du texte : ils interagissent concrètement avec des systèmes et outils externes, grâce à des interfaces API, des navigateurs, ou encore des capteurs physiques.
Cette extension vers le monde réel augmente considérablement l’échelle des dommages potentiels.
Lorsqu’ils sont intégrés à des infrastructures critiques, telles que les systèmes financiers, réseaux énergétiques, santé, ou éducation, les risques peuvent devenir sociétaux, exposant la population aux risques de dépendance émotionnelle, de manipulation d’opinions ou encore d’erreurs à fort impact économique ou humain.
À mesure que les agents d’IA gagnent en autonomie, leurs décisions s’enchaînent et produisent des effets qui dépassent leur cadre initial. Une faille dans un modèle d’IA peut ainsi impacter toute la chaîne de valeur, notamment les agents en aval.
La gouvernance devient ainsi l’enjeu central d’un déploiement responsable et maîtrisé des agents d’IA.
3. Vers une gouvernance structurée des agents d’intelligence artificielle
La gouvernance des agents d’IA s’articule autour de 4 piliers dans l’objectifs de garantir une IA transparence, maîtrisée et de confiance.
Pilier 1 : Évaluation des risques
Les agents d’IA doivent faire l’objet d’une évaluation structurée pour anticiper les comportements indésirables et leurs effets potentiels.
Cette démarche comprend deux volets :
- Identification des risques : repérer les scénarios liés à l’autonomie des agents et à leurs interactions avec l’environnement ;
- Évaluation des impacts : mesurer la robustesse, la sécurité et les conséquences sur les droits fondamentaux.
Pilier 2 : Les outils de transparence
La transparence des agents d’IA vise à rendre leurs comportements lisibles, leurs actions traçables et leurs risques prévisibles, tout en maintenant l’équilibre entre performance et supervision.
Elle repose sur quatre leviers complémentaires :
- Identifiants d’agents : assurer la traçabilité et l’authenticité des interactions grâce à des métadonnées ou filigranes.
- Cartes d’agents : documenter la finalité, les capacités, les limites et les accès externes de chaque agent.
- Journaux d’activité : enregistrer les décisions et interactions afin de faciliter l’audit et la redevabilité.
- Surveillance en temps réel : détecter et corriger rapidement les dérives comportementales.
Pilier 3 : Contrôles techniques de déploiement
Les contrôles techniques assurent la maîtrise en temps réel du comportement des agents d’IA et préviennent les dérives grâce à des dispositifs intégrés à leur architecture.
Ils reposent sur trois mécanismes clés :
- Filtres d’action en temps réel : bloquer ou suspendre les sorties dangereuses avant leur exécution.
- Arrêts d’urgence : interrompre automatiquement ou manuellement l’activité d’un agent en cas d’anomalie.
- Politiques d’utilisation acceptable : encadrer les usages autorisés, la durée d’autonomie et les conditions de supervision humaine.
Pilier 4 : Supervision humaine
La supervision humaine garantit que les décisions automatisées demeurent contrôlables, compréhensibles et alignées sur le jugement humain.
Elle s’appuie sur deux leviers essentiels :
- Points de contrôle humains (Human-in-the-Loop) : valider les actions critiques et d’interrompre les opérations en cas d’anomalie, assurant une supervision directe et réactive.
- Autorisations dynamiques : ajuster en temps réel les droits d’accès, les actions permises et le niveau d’autonomie des agents selon le contexte.
Pilier 5 : L’AI literacy
La formation des opérateurs garantit que les personnes en charge du contrôle disposent des compétences techniques, règlementaires et éthiques nécessaires pour créer les agents, autoriser leur usage et exercer un jugement éclairé et réduire le biais d’automatisation.
Gouvernez la puissance des agents d’IA avec confiance et conformité
Les agents d’IA redéfinissent la manière dont les organisations interagissent, décident et produisent de la valeur. Mais cette puissance nouvelle exige une gouvernance solide, traçable et évolutive.
Avec Naaia, transformez vos obligations de conformité en un levier de performance et de contrôle stratégique.