Panorama des régulations sur l’intelligence artificielle en Chine : deepfake, IA générative et algorithmes de recommandation

La Chine en première ligne de la régulation IA

La Chine fait figure de pionnière dans la régulation de l’intelligence artificielle. Bien avant l’entrée en vigueur de l’AI Act européen, Pékin a adopté une série de textes visant à encadrer les usages sensibles de l’IA. Ces mesures ne concernent pas seulement les acteurs locaux, toute entreprise étrangère proposant ses services en Chine est également tenue de s’y conformer.

Deepfakes, modèles génératifs, systèmes de recommandation : chaque technologie a son propre cadre réglementaire, mais l’ensemble repose sur un socle commun de transparence, de responsabilité et de protection des utilisateurs.

Mesures sur la synthèse profonde : deepfakes et clones vocaux sous surveillance

Adoptées en novembre 2022 et entrées en vigueur en janvier 2023, les Mesures pour la gestion des services d’information sur Internet utilisant la technologie de synthèse profonde ciblent les contenus multimédias manipulés par des techniques d’IA. Ces contenus sont spécialement ce qui pose des difficultés de distinction entre la réalité et ce qui est artificiel et ils sont donc soumis aux obligations de traçabilité et d’étiquetage. Pour des usages spécialement immersifs comme les deepfakes, les clones vocaux et les avatars numériques des exigences renforcées s’appliquent.

Les opérateurs doivent étiqueter clairement tout contenu synthétique, garantir la traçabilité des fichiers, mettre en place des systèmes de modération et prévenir les usages malveillants, comme l’usurpation d’identité ou la manipulation de l’opinion publique. Des audits internes et des évaluations de sécurité régulières sont également imposés.

L’objectif est clair : contenir les dérives d’une technologie qui brouille la frontière entre réel et artificiel.

Mesures sur l’IA générative : encadrer ChatGPT, Midjourney et consorts

Deuxième étape : les Mesures provisoires pour la gestion des services d’IA générative, adoptées en juillet 2023. Celles-ci visent les systèmes générant du texte, des images, de l’audio ou de la vidéo à partir de modèles génératifs. Les chatbots type ChatGPT, les générateurs d’images comme Midjourney, ou encore les plateformes de voix artificielle sont directement concernés.

Ces services doivent aligner les contenus sur les valeurs fondamentales du socialisme, éviter toute atteinte à la sécurité de l’État ou à l’unité nationale, et lutter contre les discriminations ou biais algorithmiques. Le consentement explicite des utilisateurs est requis pour l’utilisation de leurs données, tandis que les modèles et algorithmes doivent être enregistrés auprès des autorités.

La réglementation impose également une modération humaine, ainsi qu’un système de réclamation accessible, afin de renforcer la responsabilité des fournisseurs.

Mesures sur les algorithmes de recommandation : transparence et protection des utilisateurs

Dès mars 2022, la Chine avait déjà ouvert la voie avec les Mesures pour la gestion des services de recommandation algorithmique sur Internet. Elles encadrent les plateformes qui utilisent des algorithmes de classement, de personnalisation et de publicité ciblée, comme TikTok (Douyin), WeChat ou Alibaba.

Les règles exigent que les utilisateurs soient informés de l’utilisation d’algorithmes, puissent désactiver la personnalisation et aient la possibilité de gérer leurs préférences. Les opérateurs doivent également éviter de promouvoir des contenus addictifs ou nuisibles, protéger les mineurs et les publics vulnérables, et déclarer leurs algorithmes auprès de l’Administration du cyberespace de Chine (CAC).

Ces obligations marquent une volonté de trouver un équilibre entre innovation, liberté de choix et protection des citoyens.

Analyse comparative : points communs et spécificités

Ces trois textes reposent sur un socle commun : transparence, sécurité, modération et traçabilité. Ils illustrent une approche cohérente où la régulation suit le cycle d’innovation technologique.

Les différences tiennent surtout au périmètre d’application.

  • La synthèse profonde vise les technologies qui manipulent directement la perception humaine (images, voix, vidéos).
  • L’IA générative s’applique aux services accessibles au grand public, centrés sur la génération de contenu.
  • Les algorithmes de recommandation concernent l’organisation et la diffusion du contenu en ligne.

Une même entreprise peut être soumise à plusieurs de ces régulations. Un chatbot vidéo avec clonage vocal, par exemple, relèverait à la fois des règles sur la synthèse profonde et de celles sur l’IA générative.

Ce qui se prépare : reconnaissance faciale et identification des contenus IA

La régulation chinoise continue d’évoluer rapidement. Deux nouveaux textes illustrent cette dynamique.

  • Les mesures sur la reconnaissance faciale encadrent l’utilisation de l’IA dans les domaines de la surveillance, de la sécurité et de l’identification biométrique.
  • Dès septembre 2025, les mesures relatives à l’identification des contenus générés par IA introduiront de nouvelles obligations de traçabilité, notamment via le filigranage (watermarking) et les métadonnées.

Ces évolutions montrent une volonté d’aller vers une traçabilité intégrale des contenus synthétiques, avec un contrôle renforcé à la source.

Quelles leçons pour l’Europe et le reste du monde ?

La Chine est aujourd’hui le pays qui a mis en place l’arsenal réglementaire le plus complet pour encadrer l’IA. Là où l’UE finalise encore son AI Act, Pékin a déjà testé, adopté et appliqué des textes couvrant les principaux usages sensibles. Pour les entreprises, cela implique de composer avec un cadre strict, mais aussi d’anticiper que ces logiques pourraient inspirer d’autres juridictions.

Face à une IA qui évolue plus vite que la loi, la Chine s’impose comme un laboratoire réglementaire mondial.

Chez Naaia, nous aidons les organisations à décrypter ces régulations et à anticiper leur impact opérationnel. Si vous déployez des systèmes d’IA et souhaitez garantir leur conformité, nous vous accompagnons pour transformer ces obligations en leviers de confiance et de performance.

Partager l'article :