Search
Close this search box.

L’IA aux États-Unis, aperçu de la réglementation

Overview of the US regulations on AI.
Dernière mise à jour le 20/09/2023

Les 5 points à retenir

  • L’approche des États-Unis sur l’IA est partagée entre les initiatives fédérales, les législations locales, le travail des agences et la jurisprudence.
  • Au niveau fédéral, plusieurs initiatives ont posé de solides bases propices à une régulation d’envergure.
  • Au niveau local, les initiatives législatives se multiplient.
  • La jurisprudence joue un rôle important dans la compréhension et l’atténuation du rôle des algorithmes dans les discriminations. Les agences conduisent également des enquêtes sur l’impact de l’IA et orientent les débats des législateurs.
  • Enfin, les États-Unis et l’UE ont publié une feuille de route conjointe pour une IA et une gestion des risques digne de confiance.

Introduction

Des fournisseurs de systèmes d’intelligence artificielle (SIA) aux responsables politiques, un consensus mondial émerge sur le besoin d’encadrer le développement, la commercialisation et l’utilisation de cette technologie aux multiples aspects. Les États-Unis ont démontré leur engagement à rendre l’IA plus sûre grâce à des projets législatifs ambitieux et volontaires destinés à guider les efforts des acteurs de l’IA et ainsi à en réglementer son utilisation. En conséquence, les années 2023 et 2024 pourraient être marquées par des mesures plus contraignantes mises en œuvre par des organismes tels que la Federal Trade Commission (FTC). Dans cet article, découvrez les principales initiatives législatives au niveau fédéral en matière d’IA aux États-Unis, ainsi qu’au niveau local pour comprendre l’approche fragmentée de la régulation américaine de l’IA.

Des initiatives au niveau fédéral

Bien que toutes les règlementations proposées au niveau fédéral ne soient pas contraignantes, elles démontrent que l’encadrement du développement et de l’usage de l’IA est une priorité pour de nombreuses autorités américaines. Les États-Unis se sont notamment appliqués à promouvoir le leadership américain et la R&D en IA. L’utilisation de l’IA dans les agences fédérales est désormais réglementée. Des textes publiés visent à protéger les Américains et à promouvoir une « IA digne de confiance ».

L’utilisation de l’IA dans les agences fédérales : la nécessité de la formation

Les États-Unis ont adopté plusieurs textes pour réglementer l’usage de l’IA au sein du gouvernement fédéral. L’U.S. AI Training Act adopté en 2022 a pour objectif de former le personnel fédéral à la procuration, l’adoption et l’usage de l’IA au sein des agences. L’OMB, le Bureau de la gestion et du budget, doit développer une formation. Cette règlementation adopte ainsi une approche par la gestion des risques, comme le fait l’AI Act dans l’Union européenne.

Afin de promouvoir l’utilisation d’une IA digne de confiance au sein du gouvernement fédéral, la Maison Blanche a également adopté le décret présidentiel EO13960 en décembre 2020. Il stipule que les principes développés pour guider l’utilisation de l’IA au sein des agences doivent être conformes aux valeurs américaines et au droit applicable. Les agences doivent ainsi rendre public un inventaire des cas d’utilisation non classifiés et non sensibles de l’IA. L’Institut national des normes et de la technologie (NIST) évaluera en 2023 la conformité des IA déployées ou utilisées par une ou plusieurs agences fédérales, conformément au décret présidentiel.

Le Blueprint for an AI Bill of Rights pour une protection des droits des Américains

Le Blueprint for an AI Bill of Rights de la Maison Blanche a pour but de protéger le peuple américain à l’ère de l’intelligence artificielle. Cette charte des droits publiée en 2022 repose sur la volonté des opérateurs de SIA (concepteurs, développeurs, distributeurs) à l’appliquer, et vise à guider la conception, le déploiement et le développement des systèmes d’IA à l’aide de cinq grands principes :

  • Protection contre les SIA dangereux et inefficaces.
  • Protection contre la discrimination algorithmique, et utilisation et conception des SIA de manière équitable.
  • Protection des données intégrée aux SIA et droit de regard sur leur utilisation pour une protection contre les pratiques abusives.
  • Transparence au moment de l’utilisation d’un système automatisé et documentation accessible à son sujet.
  • Pouvoir de rétractation et accès à une alternative humaine en cas de problème.

La charte s’applique à tous les systèmes automatisés susceptibles d’avoir un impact significatif sur les droits, les opportunités ou l’accès du public américain à des ressources ou des services essentiels. Elle adopte ainsi une approche sectorielle de la régulation de l’intelligence artificielle aux États-Unis et se focalise plus particulièrement sur certains secteurs comme l’embauche, l’éducation, l’accès aux soins de santé et aux services financiers. Une documentation technique intitulée « Des principes à la pratique » accompagne le Blueprint et a pour but d’aider les organisations à mettre en œuvre ce cadre.

D’autres textes ont pour vocation de protéger les droits des Américains comme le décret présidentiel 14091 (2022) sur la promotion de l’équité raciale et le soutien aux communautés mal desservies par le gouvernement fédéral, ou encore la déclaration commune de représentants de la FTC et trois autres agences fédérales.

Le AI Risk Management Framework du NIST pour l’adoption d’une IA « digne de confiance »

Le NIST défini l’IA digne de confiance comme des SIA performants, sûrs, valides, fiables, équitables, respectueux de la vie privée, transparents, responsables, explicables et interprétables. Le AI Risk Management Framework est un texte non normatif et indépendant des cas d’utilisation, développé par le NIST, agence gouvernementale américaine dont la mission est de promouvoir l’innovation et la compétitivité industrielle des États-Unis en faisant progresser les normes et la technologie.

Ce cadre non-normatif a pour but de « prévenir, détecter, atténuer et gérer les risques liés à l’IA » afin d’attiser la confiance du public. Il adopte ainsi une approche fondée sur les droits humains. Ce code de conduite s’applique dès le début du cycle de vie de l’IA et à toutes les parties prenantes.

Le NIST a développé ce code de conduite après que des cas concrets ont causé des préjudices via l’utilisation de systèmes d’IA. Le traitement automatisé de réclamations de State Farm, une compagnie d’assurance, aurait discriminé des propriétaires noirs, tandis que la reconnaissance faciale en Louisiane a conduit à l’arrestation et l’emprisonnement pendant une semaine d’un homme finalement innocent.

L’Algorithmic Accountability Act : une loi contraignante pour bientôt ?

L’Algorithmic Accountability Act, loi réintroduite en 2022 mais jamais adoptée, prévoit des mécanismes de gestion des risques ex ante et ex post. Elle cherche à réguler les SIA aux États-Unis afin de protéger les consommateurs contre les biais algorithmiques. Elle exigerait des entreprises qu’elles évaluent l’impact des systèmes automatisés qu’elles utilisent et vendent en termes de partialité et d’efficacité.

Champs d’application

  • Entités utilisant un système automatisé pour prendre des décisions critiques qui possèdent, gèrent, modifient, manipulent, analysent ou contrôlent les données de plus d’un million de personnes et ayant un chiffre d’affaires annuel supérieur à 50 millions de dollars.
  • Décisions critiques : décisions susceptibles d’avoir un effet juridique, matériel ou similaire sur la vie d’autrui et couvrant les catégories suivantes : l’éducation et la formation professionnelle, l’emploi, le travail indépendant et la gestion des travailleurs, les services d’utilité publique essentiels, la planification familiale, les services financiers, les soins de santé, le logement ou l’hébergement, et les services juridiques.

Mise en œuvre

  • Via la FTC : commission fédérale du commerce, agence indépendante du gouvernement américain.
  • Obligation de transmission d’information sur les analyses d’impact annuelles à la FTC.
  • Élaboration d’évaluations, de lignes directrices et d’agrégats par la FTC.
  • Audit des SIA par la FTC.

Ce texte impose aux entreprises de transparence sur le moment et la manière dont elles utilisent les systèmes automatisés. Ainsi, les consommateurs peuvent faire des choix éclairés. Il tire ses bases de la loi « Stop Discrimination by Algorithms Act » (Washington – 2021).

Des initiatives au niveau local

La session législative de 2023 a témoigné d’une augmentation des lois étatiques américaines sur l’IA par rapport aux sessions précédentes. Entre 2021 et 2022, les introductions de projets de loi sur l’IA ont augmenté de 46%. Les États américains ont priorisé la règlementation de l’IA ayant pour objectif de lutter contre les dommages y étant associés, notamment dans les domaines de l’emploi et des ressources humaines (particulièrement au stade de l’embauche), de la santé, ou de l’assurance. Il est craint que cette nouvelle technologie ne réverbère les fractures d’inégalité déjà existantes aux États-Unis, comme en témoignent le cas de State Farm ou des autorités louisianaises. Certains États ont également inclus des réglementations de l’IA dans des lois sur la confidentialité et la protection des données personnelles. D’autres ont demandé la constitution de groupes de travail afin d’enquêter sur les impacts de l’IA.

New York City

La Bias Audit Law entrée en vigueur le 5 juillet dernier a ouvert la voie à la réglementation de l’IA dans l’embauche aux États-Unis. La ville de New York impose désormais aux entreprises un audit de partialité des outils automatisés de décision en matière d’emploi utilisés pour la sélection des candidats résidants à NYC. Un employeur européen est donc soumis à cette loi en cas de recrutement d’une personne résidante de New York. La NYC Local Law 144 prévoit que les candidats soient informés de l’utilisation de tels outils 10 jours avant leur utilisation et sur les informations qu’ils utilisent pour prendre des décisions.

Illinois

La loi de l’Illinois sur l’entretien vidéo par intelligence artificielle (AI Video Interview Act) impose des obligations aux employeurs qui utilisent l’IA pour juger les entretiens vidéo. Elle est effective depuis le 1er janvier 2020.

Colorado

La loi sur les assurances du Colorado (2021) cherche à protéger les consommateurs de pratiques d’assurance discriminantes. Ce règlement sur la gouvernance des algorithmes et des modèles prédictifs de la division des assurances de l’État comprend le maintien d’un cadre de gestion des risques, des audits de partialité des algorithmes et des données, des obligations de documentation, de déclaration, et l’explicabilité de la manière dont les données et algorithmes sont utilisés.

Washington D.C.

La Stop Discrimination by Algorithms Act suspendue en 2022 a été réintroduite en 2023. Celle-ci vise à lutter contre les discriminations algorithmiques. Elle prévoit d’interdire la prise de décision algorithmique d’utiliser des déterminations ultérieures de manière discriminatoire et exigerait que les personnes soient informées de l’utilisation de leurs données personnelles.

Californie

La Californie est l’un des États américains les plus actifs en termes de législation sur l’IA et d’effort pour la rendre plus sûre et juste. La California Workplace Technology Accountability Act introduite en janvier 2022 vise à protéger les employés en limitant le traitement de leurs données par l’employeur, en restreignant la surveillance technologique, et en exigeant des évaluations d’impact algorithmique de systèmes de décision automatisés. Des amendements à la législation californienne sur l’emploi tel que la Automated Decision Tools Bill prévoient d’interdire l’utilisation de systèmes de décision automatisés discriminants sur la base de caractéristiques protégées. Ils élargissent également les responsabilités et obligations des employeurs et fournisseurs de ces outils (ex : tenu de registres).

Les autres acteurs de la législation américaine sur l’IA

Certaines lois fédérales ou étatiques stagnent dans leur processus législatif, tandis que la jurisprudence façonne l’approche réglementaire américaine. Cette approche est particulièrement fragmentée, comme le montre le procè Louis et al v. Saferent et al. Deux demandeuses de location noires se sont vues refusées un logement locatif en raison de leur « score SafeRent ». C’est un score dérivé d’un logiciel de sélection basé sur un algorithme qu’elles accusent d’être discriminant à l’encontre des personnes noires et hispaniques du fait des facteurs pris en compte pour établir le score (crédit, dette, mais pas l’utilisation de bons de logement).

Le ministère de la Justice et le ministère du Logement et du Développement urbain ont par conséquent déposé une déclaration conjointe alléguant que « l’utilisation par les défendeurs d’un système de notation basé sur des algorithmes pour sélectionner les locataires est discriminatoire à l’égard des demandes de location des Noirs et des Hispaniques, en violation de la loi sur le logement équitable (Fair Housing Act) ».

Les agences

Les agences jouent un rôle d’envergure dans la construction de cette réglementation américaine de l’IA. Le travail de la FTC est notamment à surveiller de près car elle multiplie les enquêtes sur l’IA, son impact sur la protection des données personnelles et sur la manipulation, et ainsi impact grandement la législation américaine.

Une feuille de route conjointe pour une IA digne de confiance

Finalement, la réglementation européenne pourrait bien influencer la réglementation américaine. En effet, les États-Unis et l’UE ont publié une feuille de route conjointe pour une IA et une gestion des risques digne de confiance. Ce texte a pour but de soutenir la normalisation internationale en termes d’IA, respecter l’engagement des deux puissances envers les recommandations de l’OCDE, et promouvoir une IA digne de confiance. Cette feuille de route cherche à guider le développement de l’IA et des outils y étant associés. De plus, Américains et Européens y reconnaissent l’efficacité d’une approche basée sur les risques pour donner confiance au public en l’IA sans freiner l’innovation.

Entre rappel des droits et élaboration de codes de conduite, les États-Unis ont posé de solides bases propices à une régulation d’envergure. Or, l’approche fragmentée des Américains à la réglementation de l’IA et l’importance que jouent les agences fédérales et la jurisprudence complexifient une avancée commune du pays et donc une affirmation du leadership américain sur la réglementation mondiale de l’IA.

Partager l'article :
Search
Close this search box.