IA Anthropomorphe : cadre législatif international, risques et gouvernance 

Les systèmes d’intelligence artificielle anthropomorphes se développent rapidement dans de nombreux environnements numériques. Compagnons conversationnels, avatars, assistants vocaux ou chatbots relationnels sont conçus pour simuler des traits humains tels que l’empathie, la personnalité ou la continuité relationnelle. 

En introduisant une dimension émotionnelle et sociale dans l’interaction, ces systèmes modifient profondément la relation entre l’utilisateur et la technologie. Cette évolution soulève toutefois des enjeux spécifiques en matière de protection des personnes, de gestion des risques et de responsabilité ainsi que des risques importants lorsque ces outils sont utilisés par des publics vulnérables ou dans des contextes sensibles.

Cet article vise à clarifier la notion d’IA anthropomorphe, à présenter les principaux risques associés à ces systèmes et à analyser les premières réponses réglementaires structurantes, notamment formalisées par la Chine et l’État de New York ou la Californie.  

1. IA anthropomorphe : définition  

Définition générale 

L’anthropomorphisme désigne le fait d’attribuer des caractéristiques humaines à des entités non humaines. Appliqué à l’intelligence artificielle, il consiste à concevoir ou présenter des systèmes d’IA comme s’ils disposaient de traits humains, tels que des émotions, une personnalité, des intentions ou une capacité relationnelle. 

L’IA anthropomorphe ne se définit donc pas par une technologie spécifique, mais par un mode d’interaction et de représentation. Elle repose sur des choix de conception (langage, ton, mémoire relationnelle, apparence visuelle ou vocale) visant à rendre l’IA plus proche, plus familière ou plus engageante pour l’utilisateur. 

Exemples de systèmes d’IA anthropomorphes 

Les formes les plus courantes d’IA anthropomorphe incluent notamment : 

  • Les compagnons IA, conçus pour interagir de manière continue avec l’utilisateur et instaurer une relation émotionnelle ; 
  • Les avatars et humains synthétiques, incarnant un personnage doté d’une identité visuelle et comportementale ; 
  • Certains chatbots relationnels, capables de maintenir une conversation contextualisée dans le temps et d’adapter leur posture sociale ; 
  • Des assistants ou copilotes présentés comme empathiques ou « compréhensifs », au-delà d’une simple assistance fonctionnelle. 

Ces systèmes se distinguent des chatbots ou assistants classiques par leur capacité à simuler une relation, et non uniquement à fournir une information ou exécuter une tâche. 

2. Avantages et risques liés à l’IA anthropomorphe 

2.1 Potentiels et apports des systèmes anthropomorphes 

L’anthropomorphisme constitue avant tout un levier d’adoption des technologies d’IA. En rendant l’interaction plus naturelle et plus intuitive, ces systèmes peuvent améliorer l’accessibilité des services numériques, en particulier pour des publics peu à l’aise avec des interfaces techniques traditionnelles. 

Les IA anthropomorphes peuvent également contribuer à : 

  • Faciliter l’engagement des utilisateurs dans des parcours d’assistance ou d’apprentissage ; 
  • Améliorer l’expérience utilisateur dans des contextes de support ou d’accompagnement ; 
  • Offrir un point de contact continu, disponible et personnalisé, notamment dans des situations d’isolement. 

Dans certains cas, ces systèmes sont présentés comme des outils de soutien émotionnel ou de bien-être, ce qui explique leur diffusion rapide sur le marché. 

2.2 Risques spécifiques et enjeux de gouvernance  

Les bénéfices attendus s’accompagnent toutefois de risques structurants, qui justifient un encadrement spécifique. 

  • Vulnérabilité et dépendance émotionnelle : La simulation d’empathie et de présence peut favoriser une relation de confiance excessive. Chez certains publics, notamment les mineurs, personnes isolées ou fragilisées, cela peut conduire à des formes de dépendance émotionnelle ou de substitution relationnelle. 
  • Manipulation et influence comportementale : L’IA anthropomorphe bénéficie d’un niveau de crédibilité perçu plus élevé. Cette proximité peut être exploitée pour orienter les comportements, influencer des décisions ou maintenir artificiellement l’engagement des utilisateurs, parfois sans transparence suffisante. 
  • Données personnelles et vie privée : Les utilisateurs ont tendance à partager davantage d’informations personnelles, voire sensibles, avec des systèmes perçus comme « humains ». Cela accroît les risques liés à la collecte, à l’utilisation secondaire et à la sécurisation de ces données, en particulier lorsque les standards de protection sont insuffisants. 
  • Distorsion de la relation à l’IA : En brouillant la frontière entre humain et machine, l’anthropomorphisme peut conduire à une surestimation des capacités réelles de l’IA. Cette confusion affaiblit l’esprit critique des utilisateurs et complique l’attribution des responsabilités en cas de préjudice. 

3. Cadres réglementaires émergeants 

Face aux risques spécifiques liés à l’IA anthropomorphe, certaines juridictions ont commencé à développer des cadres juridiques ciblés, reconnaissant que la simulation de traits humains et l’interaction émotionnelle constituent des facteurs de risque distincts. La Chine, l’État de New York et la Californie figurent parmi les acteurs les plus avancés, selon des logiques réglementaires différentes mais convergentes sur le fond.  

3.1 La Chine : reconnaître et encadrer l’interaction émotionnelle comme facteur de risque 

La Chine fait partie des premières juridictions à avoir défini et encadré les systèmes d’IA anthropomorphes. La Cyberspace Administration of China (CAC) a publié, le 27 décembre 2025, un projet de Mesures pour la gestion des services interactifs anthropomorphes de l’IA, actuellement soumis à consultation publique.  

Les mesures ciblent les services d’IA conçus pour simuler des traits humains (personnalité, raisonnement, communication) et engager les utilisateurs dans des interactions émotionnelles continues, quels que soient les supports utilisés (texte, audio, vidéo, avatars). Ces systèmes sont désormais qualifiés d’infrastructures sensibles, en raison de leur capacité à influencer les émotions, les comportements et l’autonomie des utilisateurs. 

Le cadre chinois impose notamment : 

  • Responsabilité sur tout le cycle de vie, incluant la conception, l’entraînement, le déploiement et les mises à jour, avec une documentation complète des modèles, données, usages et mécanismes de sécurité. 
  • Évaluations de sécurité obligatoires au-delà de certains seuils d’usage ou d’impact social, couvrant l’architecture des systèmes, la gouvernance des données, la protection de la vie privée et la gestion des risques. 
  • Gestion active des risques psychologiques, avec détection de la dépendance, des usages compulsifs ou de la détresse émotionnelle et mise en œuvre de contre-mesures graduées. 
  • Protection renforcée des mineurs, via des modes adaptés à l’âge, le consentement parental, des limites d’usage et un filtrage strict des contenus sensibles. 
  • Rupture explicite de l’illusion humaine, par une information claire et répétée sur la nature non humaine du système. 
  • Respect de lignes rouges idéologiques et sociales, incluant l’interdiction de certains contenus et de l’usurpation d’identité. 

L’IA anthropomorphe ne sera pas interdite en Chine, mais strictement encadrée, afin de rester prévisible, contrôlable et alignée avec les objectifs de stabilité sociale. 

3.2 L’Etat de New York : une approche centrée sur la prévention des dommages individuels 

Aux États-Unis, l’État de New York vise à adopter une approche plus ciblée à travers le NY State Assembly Bill 2025-A6767, consacré explicitement aux compagnons IA. Adopté par l’Assemblée de l’état en mars 2025 puis renvoyé à celle-ci après examen par le Sénat en janvier 2026, le texte n’est pas entré en vigueur, mais repose sur un principe central de prévention des dommages individuels. 

Ce texte part du principe que les compagnons, c’est-à-dire les systèmes conçus pour instaurer une relation sociale ou émotionnelle prolongée avec les utilisateurs, peuvent engendrer des risques graves et immédiats. Ce texte interdit la mise à disposition d’un compagnon IA dépourvu de protocoles permettant de traiter : 

  • Les expressions de tendances suicidaires ou d’auto-mutilation, 
  • Les risques de violence envers autrui, 
  • Les risques de préjudice financier. 

La loi prévoit également :  

  • Des obligations de transparence explicite sur la nature non humaine du système 
  • Des mécanismes d’orientation vers des services d’assistance ou de crise lorsque des signaux de détresse sont identifiés. 

L’approche new-yorkaise repose sur un principe de duty of care : dès lors qu’un système est conçu pour interagir sur un registre émotionnel ou relationnel, son opérateur doit anticiper les dommages potentiels et mettre en place des garde-fous opérationnels, sans nécessairement encadrer l’ensemble des choix de conception anthropomorphes. 

3.3 Californie : transparence, sécurité et obligation de rendre compte 

La Californie s’inscrit dans le mouvement de régulation des chatbots compagnons avec la Senate Bill No. 243, entrée en vigueur le 1er janvier 2026. 

Le cadre californien adopte une approche centrée sur la protection des utilisateurs et la responsabilisation des opérateurs, en particulier lorsque ces systèmes peuvent être perçus comme humains ou s’adressent à des publics vulnérables. Il impose notamment : 

  • Transparence renforcée sur la nature artificielle du système lorsque l’interaction peut être perçue comme humaine, avec rappels réguliers pour les mineurs.  
  • Protocoles de sécurité obligatoires visant à prévenir la production de contenus liés au suicide, à l’auto-mutilation et à d’autres formes de préjudices, avec obligation d’orientation vers des services d’assistance en cas de signaux de détresse. 
  • Protection accrue des mineurs, via des restrictions spécifiques sur certains contenus et avertissements explicites quant à l’adéquation de ces systèmes pour les publics mineurs. 
  • Obligation de redevabilité, avec la mise en place d’un reporting annuel auprès des autorités compétentes afin de documenter les mesures de sécurité déployées et les incidents détectés, assortie de mécanismes de sanction en cas de non-conformité. 

4. Mécanismes de gouvernance adaptés à l’IA anthropomorphe 

Les cadres réglementaires existants illustrent une tendance de fond : dès lors qu’un système d’IA est conçu pour interagir sur un registre social ou émotionnel, les exigences de gouvernance doivent être renforcées. Cette logique s’applique au-delà des juridictions ayant déjà légiféré et concerne l’ensemble des organisations développant ou déployant des IA anthropomorphes. 

Transparence et maîtrise de l’anthropomorphisme 

Les utilisateurs doivent pouvoir identifier clairement la nature artificielle du système, comprendre ses finalités et les grandes lignes de son fonctionnement, ainsi que l’usage fait de leurs données. Cette transparence doit être intégrée à l’expérience d’usage et limiter toute confusion affective liée à des choix de conception excessivement humanisants. 

Encadrement des usages à impact émotionnel 

Lorsque des systèmes revendiquent un rôle de soutien émotionnel ou de bien-être, leur périmètre d’usage doit être explicitement défini et soumis à des évaluations indépendantes, afin d’éviter toute assimilation implicite à des dispositifs thérapeutiques en l’absence de cadre sectoriel adapté. 

Protocoles de sécurité et de gestion de crise 

Les IA anthropomorphes doivent par ailleurs intégrer des protocoles de sécurité permettant d’identifier les situations de détresse ou de dépendance et d’orienter, lorsque nécessaire, vers des ressources humaines appropriées. 

Protection des publics vulnérables 

Une attention particulière doit être portée aux publics vulnérables, notamment les mineurs et les personnes en situation de fragilité psychologique ou sociale. Cela implique des restrictions d’usage, des paramètres spécifiques et des avertissements adaptés, afin de limiter les risques de dépendance émotionnelle ou d’influence indue. 

Traçabilité et redevabilité 

Enfin, une gouvernance crédible repose sur la capacité à documenter les incidents, auditer les systèmes et assurer un suivi régulier des mesures de sécurité. Ces mécanismes de traçabilité et de reporting constituent un socle essentiel de responsabilité, y compris dans les environnements juridiques encore peu structurés. 


Encadrer l’IA anthropomorphe dès aujourd’hui 

Les systèmes d’IA anthropomorphes introduisent des risques particuliers liés à l’interaction émotionnelle, à la perception de l’autonomie et à la protection des personnes. Leur déploiement appelle des mécanismes de pilotage capables de suivre finement les agents, leurs comportements et leurs usages réels. 

👉 Découvrez la plateforme Naaia, conçue pour accompagner les organisations dans le pilotage de leurs agents IA, la gestion des risques associés et l’anticipation des cadres réglementaires applicables à l’IA anthropomorphe. 

Partager l'article :