Réglementation de l’IA aux États-Unis : cadre fédéral et lois étatiques  

L’encadrement juridique de l’intelligence artificielle aux États-Unis ne repose pas sur une loi fédérale unique comparable à un « code de l’IA ». Il s’organise plutôt autour d’un pilotage fédéral par Executive Orders et d’un ensemble de lois étatiques (et parfois locales) qui créent des obligations directement applicables.  

Résultat : un paysage fragmenté, où la conformité dépend fortement de l’État, du cas d’usage (recrutement, services essentiels, contenus génératifs, etc.) et du rôle de l’opérateur (développeur, déployeur, fournisseur). 

I. Le cadre américain : deux niveaux, pas de “U.S. AI Act” 

La réglementation de l’intelligence artificielle aux États-Unis s’inscrit dans l’architecture institutionnelle propre au pays, fondée sur une répartition des compétences entre le niveau fédéral et les États.  

Dans ce contexte, le cadre américain se caractérise par : 

  • Une gouvernance à deux niveaux, combinant stratégie fédérale et législations adoptées par les États (et parfois les autorités locales). 
  • L’absence d’une loi fédérale unique et exhaustive comparable à l’AI Act européen. 
  • Un pilotage fédéral largement structuré par des Executive Orders, qui fixent les priorités nationales et orientent l’action des agences fédérales. 
  • Des lois étatiques pouvant imposer des obligations juridiquement contraignantes aux entreprises, appliquées par les Attorneys General ou par des autorités locales. 
  • Domaines prioritaires : lutte contre la discrimination, transparence, protection des consommateurs et encadrement des contenus générés.

Dans ce cadre, l’approche américaine met généralement l’accent sur le maintien du leadership technologique et de l’innovation 

Executive Orders : le moteur fédéral  

Un Executive Order est un acte normatif pris par le Président des États-Unis dans l’exercice de ses pouvoirs constitutionnels et/ou légaux. Il est juridiquement contraignant pour les agences et administrations fédérales, oriente leurs priorités et peut influencer le secteur privé via la commande publique, des orientations réglementaires ou des standards fédéraux. En revanche, il n’équivaut pas à une loi adoptée par le Congrès et ne crée pas, en principe, un code de conformité directement applicable à toutes les entreprises.  

En l’absence d’une loi fédérale globale sur l’IA, les Etats fédérés élaborent et adoptent leurs propres règles applicables aux systèmes d’IA. Il en résulte un paysage réglementaire fragmenté, où les obligations varient selon la juridiction et le cas d’usage. 

Parmi les exemples les plus structurants : 

Colorado Approche fondée sur le risque visant la discrimination algorithmique (entrée en vigueur : 2026
Californie Obligations de transparence pour l’IA générative et encadrement des deepfakes (entrée en vigueur : 2026
Texas Interdictions de certains usages, obligations ciblées et sanctions civiles (entrée en vigueur : 2026
New York City Réglementation des outils automatisés de décision en recrutement (en vigueur depuis 2023
Utah Protection des consommateurs et des mineurs dans les interactions avec des systèmes d’IA (en vigueur depuis 2024

II. Le niveau fédéral : stratégie exécutive et “AI Action Plan” 

1. Une gouvernance fédérale structurée par l’exécutif 

Au niveau fédéral, la politique IA se met en œuvre principalement via : 

  • Des Executive Orders ; 
  • Des cadres stratégiques (plans d’action, priorités nationales) ; 
  • L’exécution par les agences (mise en œuvre, achats publics, infrastructures, positionnement international).

“Winning the Race: America’s AI Action Plan”

À la suite de l’Executive Order « Removing Barriers to American Leadership in Artificial Intelligence » (EO 14179, 23 janvier 2025), la Maison Blanche a publié le plan stratégique « Winning the Race: America’s AI Action Plan » (juillet 2025). Ce document ne crée pas une loi fédérale unique, mais sert de blueprint pour guider l’action de l’administration (priorités, financement, achats publics, infrastructures, diplomatie). 

Le plan s’articule autour de trois piliers : 

  • Accélérer l’innovation en IA 
  • Construire l’infrastructure américaine de l’IA 
  • Diriger la diplomatie et la sécurité internationales en matière d’IA 

2. Executive Orders clés liés à la stratégie fédérale IA 

Voici les textes structurants, avec leur rôle principal au sein de la stratégie : 

  • Maintain U.S. Leadership in Artificial Intelligence (2019) : lance l’American AI Initiative et fixe des priorités fédérales (recherche, talents, cadre réglementaire).  
  • Removing Barriers to American Leadership in Artificial Intelligence (EO 14179, janv. 2025) : ancre une orientation fédérale “pro-innovation”, demandant la suppression d’obstacles perçus à la compétitivité IA.  
  • President’s Council of Advisors on Science and Technology (EO 14177, janv. 2025) : renforce la structure de conseil scientifique et technologique au niveau présidentiel.  
  • Advancing Artificial Intelligence Education for American Youth (avr. 2025) : vise à développer la formation et les compétences IA dans l’éducation.  
  • Accelerating Federal Permitting of Data Center Infrastructure (EO 14318, juil. 2025) : accélère certains volets de permis fédéraux pour des infrastructures de data centers liés à l’IA.  
  • Promoting the Export of the American AI Technology Stack (EO 14320, juil. 2025) : structure un effort fédéral coordonné de soutien à l’export de “full-stack” IA d’origine américaine.  
  • Preventing Woke AI in the Federal Government (EO 14319, juil. 2025) : fixe des exigences/attentes pour les systèmes d’IA (notamment LLM) utilisés par le gouvernement fédéral et influence potentiellement la commande publique.  
  • Ensuring a National Policy Framework for Artificial Intelligence (EO 14365, déc. 2025) : affirme un cadre national “minimally burdensome” et vise à réduire la fragmentation, notamment en s’attaquant aux obstacles posés par certaines approches étatiques 

3. Ensuring a National Policy Framework for Aritificial Intelligence : Vers une coordination fédérale renforcée

Le dernier Executive Order « Ensuring a National Policy Framework for Artificial Intelligence » (décembre 2025) marque une étape importante dans l’évolution de la gouvernance fédérale de l’IA aux États-Unis. Ce texte affirme la volonté de renforcer la cohérence du cadre réglementaire national et de limiter les effets de fragmentation liés à la multiplication des initiatives législatives étatiques. 

À cette fin, l’Executive Order prévoit notamment : 

  • La création d’une task force au sein du Département de la Justice (DOJ) ; 
  • L’analyse des lois et initiatives étatiques relatives à l’IA; 
  • L’identification d’éventuels conflits avec les priorités fédérales en matière d’innovation et de compétitivité technologique. La loi sur l’IA du Colorado est notamment mentionnée dans le texte comme exemple de réglementation susceptible de soulever de telles préoccupations. 

Un rapport du DOJ est attendu dans les prochains mois et pourrait éclairer les orientations futures de la politique fédérale. 

Les tensions autour de la fragmentation réglementaire

Cette initiative intervient dans un contexte marqué par la multiplication des réglementations adoptées au niveau des États. Plusieurs autorités fédérales ont souligné les risques qu’un paysage réglementaire trop fragmenté pourrait faire peser sur le développement et le déploiement des technologies d’IA aux États-Unis. 

Parallèlement, plusieurs États ont affirmé leur volonté de maintenir des cadres réglementaires autonomes, notamment pour encadrer les risques liés à la discrimination algorithmique, à la transparence des systèmes d’IA ou à la protection des consommateurs. 

4. Le TRUMP AMERICA AI Act : une tentative d’harmonisation fédérale

Dans ce contexte, un projet de loi fédéral intitulé TRUMP AMERICA AI Act (The Republic Unifying Meritocratic Performance Advancing Machine Intelligence by Eliminating Regulatory Interstate Chaos Across American Industry Act) a été introduit afin d’établir un socle minimal d’exigences fédérales applicables aux systèmes d’IA 

Le texte prévoit notamment : 

  • L’instauration d’un devoir de diligence pour les développeurs de systèmes d’IA dans la conception et l’exploitation de leurs plateformes ; 
  • Des protocoles de gestion des risques pour les modèles d’IA avancés (frontier models) ; 
  • Des obligations de transparence et de reporting relatives aux modèles à fort impact ; 
  • La création d’un Federal AI Safety Institute (FAISI) au sein du National Institute of Standards and Technology (NIST) ; 
  • Des mécanismes visant à encadrer la responsabilité des développeurs et opérateurs de systèmes d’IA. 

Le projet aborde également des questions telles que l’utilisation des données pour l’entraînement des modèles, la sécurité des systèmes avancés, l’impact de l’IA sur l’emploi ou encore la protection des mineurs dans les environnements numériques.  

À ce stade, les développements législatifs relatifs à ce texte demeurent relativement limités en termes de visibilité publique, et son calendrier d’adoption reste incertain. 

III. États pionniers ayant adopté des réglementations contraignantes en matière d’IA

En l’absence de loi fédérale unique, plusieurs juridictions ont adopté des textes applicables (ou sur le point de l’être), avec des obligations concrètes (audit, transparence, devoir de diligence, interdictions, sanctions).  

Parallèlement, l’écosystème réglementaire américain est également marqué par la présence de nombreux “microbills”, es textes législatifs très courts et ciblés, visant des acteurs ou des usages précis de l’IA. Ces initiatives portent notamment sur la gouvernance de l’IA dans le secteur public, dans le contexte électoral, la transparence des contenus générés par IA, la protection des mineurs, ou encore l’encadrement des deepfakes. 

1. Texas – TRAIGA (Texas Responsible Artificial Intelligence Governance Act) 

Objectif : Mettre en place un cadre de gouvernance IA au Texas, notamment via l’interdiction de certaines pratiques à haut risque et l’instauration d’un régime de contrôle et de sanctions. 

Champ d’application : Texte applicable aux organisations dont des systèmes d’IA sont développés, déployés ou exploités en lien avec le Texas (notamment lorsque des personnes situées au Texas sont concernées. 

Principales obligations et interdictions :  

Interdictions ciblées :  

  • Manipulation comportementale incitant à l’automutilation/violence/ activité criminelle ;  
  • Certaines formes de discrimination illégale ;  
  • Social scoring par des entités gouvernementales ;  
  • Restrictions sur certaines utilisations biométriques par le gouvernement sans consentement (avec exceptions) ;  
  • Interdiction d’objectifs visant à porter atteinte aux droits constitutionnels ; 
  • Interdiction de systèmes destinés à produire/diffuser certains contenus illégaux (dont deepfakes sexuels illicites, etc.). 

Sandbox réglementaire : mécanisme de tests encadrés (avec maintien des interdictions de fond). 

Safe harbor : une conformité substantielle à des cadres reconnus (ex. NIST AI RMF) peut soutenir une défense/atténuation dans certains contextes d’application. 

Sanctions et contrôle : 

  • Autorité : Texas Attorney General (pouvoirs d’enquête et mécanisme de signalement en ligne).  
  • Délai de mise en conformité : logique de notice & cure (période de correction) prévue par le texte.  
  • Sanctions civiles : fourchettes prévues pour les violations non corrigées et “incurables”, ainsi que des pénalités journalières pour violation continue (et injonctions possibles) 

2. Colorado – SB 24-205 (Consumer Protections in Interactions with AI Systems) 

Objectif : Prévenir la discrimination algorithmique dans les systèmes d’IA à haut risque utilisés pour des décisions “conséquentes” (emploi, logement, crédit, santé, services publics, etc.). 

Champ d’application :  

  • Texte applicable aux développeurs de systèmes d’IA à haut risque ; aux déployeurs qui utilisent de tels systèmes dans l’État du Colorado ; aux systèmes d’IA qui affectent des résidents du Colorado. 
  • Le texte opère une distinction claire entre développeur (entité qui conçoit ou fournit le système) et déployeur (entité qui l’utilise dans un contexte opérationnel). 
  • La loi vise principalement les systèmes d’IA prédictifs utilisés pour prendre ou contribuer de manière substantielle à des décisions. Elle ne cible pas, à titre principal, les outils d’IA générative généralistes. 

Principales obligations : 

  • Devoir général de diligence raisonnable : développeurs et déployeurs doivent exercer une diligence raisonnable pour prévenir la discrimination algorithmique liée à l’usage d’un système à haut risque. 
  • Développeurs : documentation et informations permettant la gestion des risques par les déployeurs ; transparence sur limites/usages ; notification en cas de discrimination détectée. 
  • Déployeurs : politique de gestion des risques, évaluations d’impact, surveillance, information des personnes lorsque l’IA est utilisée dans une décision conséquente (selon les cas), et mécanismes de recours/contrôle humain lorsque requis. 
  • Transparence d’interaction : obligation d’informer lorsqu’un consommateur interagit avec un système d’IA, sauf si c’est évident. 

Sanctions et contrôle : 

  • L’autorité de contrôle relève exclusivement du Procureur général du Colorado. 
  • Il n’existe aucun droit d’action privé pour les particuliers. 
  • Les violations sont qualifiées de pratiques commerciales déloyales ou trompeuses au sens du Colorado Consumer Protection Act. 
  • Des sanctions civiles pouvant atteindre 20 000 dollars par violation peuvent être prononcées, selon les modalités prévues par le régime applicable. 

3. Californie – Transparence IA générative (AB-2013 et SB-942) 

La Californie a adopté deux textes majeurs axés sur la transparence en IA générative, tous deux effectifs au 1er janvier 2026

A) AB-2013 – Training Data Transparency (TDTA) 

Objectif : Renforcer la transparence sur les données d’entraînement des systèmes d’IA générative accessibles en Californie.  

Champ d’application :  

  • La loi s’applique aux développeurs de systèmes d’IA générative et aux fournisseurs proposant des systèmes ou services d’IA générative accessibles en Californie. 
  • Elle vise les systèmes capables de générer du contenu synthétique, notamment du texte, des images, de l’audio ou de la vidéo. 
  • Les systèmes d’IA utilisés exclusivement à des fins internes et non accessibles au public sont exclus du champ d’application. 

Aucune obligation de divulgation ne s’applique aux systèmes utilisés exclusivement à des fins de 

  1.  Sécurité et intégrité des données  ;
  2. Sécurité physique ;
  3. Exploitation des aéronefs dans l’espace aérien national et ;
  4. Sécurité nationale, défense ou activités militaires. 

Principales obligations :  

  • Publication d’un résumé “high-level” des jeux de données utilisés pour l’entraînement (au sens large, incluant notamment les sources, origine, type et volume de données, fine-tuning/updates substantiels), avec mise à jour lors de modifications substantielles.  

Sanctions et contrôle : 

  • Application via l’autorité de l’État (mécanismes et sanctions selon le cadre californien applicable ; analyses soulignent des conséquences civiles possibles).  

B) SB-942 – California AI Transparency Act

Objectif : Accroître la transparence sur les médias générés par IA (audio/image/vidéo) et réduire la prolifération de deepfakes via des exigences techniques et contractuelles.  

Champ d’application :  

La loi s’applique aux “Covered Providers”, c’est-à-dire aux entités qui : 

  • Créent ou produisent un système d’IA générative ; 
  • Comptent plus de 1 000 000 d’utilisateurs mensuels ; 
  • Rendent ce système accessible au public en Californie. 

Le texte concerne uniquement les contenus image, audio et vidéo générés par IA. Les contenus textuels ne sont pas visés par ce dispositif. 

Sont exclus du champ d’application les jeux vidéo, films, œuvres audiovisuelles ou expériences interactives qui ne reposent pas sur du contenu généré par les utilisateurs. 

Principales obligations :  

  • Outil de détection accessible gratuitement ; 
  • Disclosures latentes (métadonnées intégrées) + option de disclosures manifestes (visibles) ; 
  • Obligations contractuelles lorsque le système est licencié à des tiers (maintien des capacités de disclosure, mécanismes de révocation en cas d’altération).  

Sanctions et contrôle : 

  • Pénalité civile : 5 000 $ par violation (chaque jour pouvant constituer une violation additionnelle selon le texte), actions possibles par l’Attorney General et certaines autorités locales. 

4. New York City – Local Law 144 (Automated Employment Decision Tools) 

Contrairement aux lois étatiques, Local Law 144 est une réglementation municipale adoptée par la ville de New York, ciblant un cas d’usage précis : l’emploi.  

Objectif : Réduire le risque de discrimination dans les décisions de recrutement et de promotion lorsque des outils automatisés sont utilisés, via audit indépendant et transparence envers les candidats.  

Définition : Un outil automatisé de décision en matière d’emploi (AEDT) désigne  :

  • Un outil computationnel fondé sur le machine learning, la modélisation statistique, l’analyse de données ou l’intelligence artificielle ; 
  • Qui fournit un résultat simplifié (par exemple un score, une classification ou une recommandation) ; 
  • Utilisé comme facteur exclusif ou déterminant dans une décision d’embauche ou de promotion ; 
  • Ou utilisé pour se substituer à une prise de décision humaine. 

Ne sont pas considérés comme des AEDT : les filtres anti-spam, pare-feu, logiciels antivirus ; les calculatrices, tableurs, bases de données ; les jeux de données ou autres compilations de données dépourvus de fonction décisionnelle automatisée. 

Principales obligations : 

  • Audit de biais indépendant avant usage et de façon récurrente (périodicité annuelle dans la pratique d’application) ; 
  • Information des candidats (préavis) sur l’usage d’un AEDT et sur des éléments clés liés à l’évaluation ; 
  • Publication d’éléments relatifs au dernier audit (date + synthèse) et informations associées.  

Sanctions et contrôle : 

  • Autorité : NYC Department of Consumer and Worker Protection (DCWP).  
  • Amendes : 500 $ (première violation) puis 1 500 $ (violations suivantes), selon synthèses de conformité largement utilisées.  
  • Pas d’action privée : application par l’autorité locale.  

IV. Conclusion : un cadre “fédéral et patchwork” qui impose une approche structurée de conformité 

La réglementation américaine de l’IA repose sur un équilibre : d’un côté, une stratégie fédérale largement pilotée par l’exécutif, qui fixe les priorités nationales en matière d’innovation, d’infrastructure et de compétitivité ; de l’autre, des législations étatiques et locales qui instaurent des obligations juridiques concrètes en matière d’audit, de transparence, de gestion des risques, d’interdictions ciblées et de sanctions. 

Pour les organisations, la difficulté n’est pas seulement de “connaître la règle”, mais de cartographier les usages IA, d’identifier les juridictions pertinentes et de mettre en place une gouvernance vérifiable (documentation, processus, contrôles, suivi). 


Maîtrisez votre conformité IA aux États-Unis 

Vous déployez (ou envisagez de déployer) des systèmes d’IA aux États-Unis ? 

Naaia vous aide à structurer un cadre de gouvernance opérationnel : cartographie des systèmes, gestion des risques, documentation de conformité et pilotage continu depuis une plateforme de management de l’IA conçue pour industrialiser ces exigences au fil du temps. 

Partager l'article :