La vulnérabilité humaine face à l’IA  

L’essor de l’intelligence artificielle (IA) fascine autant qu’elle inquiète. La place de l’humain et sa vulnérabilité deviennent une préoccupation face aux risques de l’IA. Ces risques incluent la perte de contrôle, les biais algorithmiques, les inégalités, la discrimination et la menace pour la vie privée. Cette vulnérabilité se manifeste par une dépendance croissante à des systèmes complexes, souvent qualifiés de « boîtes noires », dont le fonctionnement reste opaque pour la plupart. Les erreurs et les biais des algorithmes peuvent entraîner des conséquences graves, amplifiant les préjugés et affectant des décisions cruciales dans des domaines comme l’emploi, la justice et la santé.

Placer l’humain au centre

Pour surmonter ces défis, il est essentiel de placer l’humain au centre du développement et de l’utilisation de l’IA. Cela implique de concevoir des technologies éthiques et transparentes, tout en garantissant aux utilisateurs une compréhension et un contrôle adéquats de ces outils. En mettant l’accent sur l’humain, nous pouvons maximiser les bénéfices de l’IA tout en minimisant ses risques, assurant ainsi un avenir où la technologie sert véritablement les intérêts de l’humanité et non l’inverse.

Europe – AI Act  

Le premier règlement global sur l’IA dans le monde, l’AI Act propose un cadre harmonisé régulant l’IA comme un produit, et donc la sécurité du produit en intégrant le respect des droits fondamentaux. Ainsi, l’AI Act met l’accent sur la protection de l’humain et aborde les vulnérabilités qui peuvent découler de l’usage des systèmes d’IA. Plus concrètement, cela se manifeste par des principes tels que le contrôle humain, le respect de la vie privée conformément au RGPD, et la protection de la diversité. Il inclut également la non-discrimination, l’équité, ainsi que le bien-être social et environnemental.

Qu’est ce qu’une personne vulnérable?

Dans ce cadre, la question de la détermination de ce qu’est une “personne vulnérable” se pose.

Cette notion n’est pas définie explicitement dans l’AI Act, mais il est admis communément que les personnes vulnérables sont:

  • des personnes mineures ou âgées ;   
  • des personnes en situation de handicap physique ou mental ;   
  • des personnes vivant dans une extrême pauvreté ou appartenant à des minorités ethniques, raciales ou religieuses.   

Plus généralement, la vulnérabilité apparaît lorsqu’un déséquilibre de pouvoir existe entre l’utilisateur final et le déployeur d’IA. Ce déséquilibre peut découler du statut, de l’autorité, des connaissances, des circonstances économiques ou sociales, ou encore de l’âge.   

Pratiques interdites

Au cœur des dispositions de l’AI Act se trouvent des pratiques interdites, et notamment deux d’entre elles sur huit peuvent être ici soulignées en lien avec la vulnérabilité humaine: 

  • Techniques subliminales et manipulatrices / trompeuses entraînant des préjudices importants  

Il est interdit d’utiliser un système d’IA qui déploie des techniques subliminales ou des techniques de manipulation ou de tromperie pour fausser matériellement le comportement d’une ou de plusieurs personnes, entraînant pour elles un préjudice important. Cette interdiction vise à protéger les personnes contre les influences qui les amèneraient à perdre leur libre arbitre et à prendre des décisions qu’elles n’auraient pas prises autrement.  

  • Exploitation des vulnérabilités entraînant des préjudices importants  

Il est interdit d’utiliser un système d’IA pour exploiter les vulnérabilités de groupes spécifiques de personnes, telles que celles fondées sur l’âge, le handicap ou la situation socio-économique, afin d’altérer leur comportement d’une manière préjudiciable.  

Haut risque

Par ailleurs, figure aussi dans les dispositions la classification de certains systèmes d’IA comme étant à haut risque, en particulier lorsque leur application pourrait avoir un impact négatif sur les droits fondamentaux protégés par la Charte tels que le droit à la dignité humaine, la non-discrimination et les droits des personnes handicapées, entre autres. Cela concerne l’usage des systèmes d’IA dans les domaines tels que (Annexe III) :

  • l’éducation et formation professionnelle
  • l’accès et droit aux services privés essentiels et aux services publics et prestations sociales
  • la migration, asile et gestion des contrôles aux frontières
  • la répression
  • l’administration de la justice et processus démocratiques

Dans ce domaine, le législateur estime que les autorités publiques ou les acteurs privés peuvent rendre les personnes dépendantes de leurs décisions.

A cet égard, à travers des actes délégués, la Commission peut revoir la liste des cas d’usages ou domaines des systèmes d’IA à haut risque dont l’un des critères est la vulnérabilité humaine.

Evaluation de l’impact sur les droits fondamentaux

L’AI Act impose aux déployeurs d’évaluer en profondeur l’impact des systèmes d’IA à haut risque sur les droits fondamentaux avant leur déploiement. Cette évaluation doit garantir une analyse méticuleuse des préjudices potentiels pour les individus ou les groupes. Elle inclut une analyse de la destination prévue du système d’IA, des catégories de personnes affectées, des risques spécifiques de préjudice, et des mesures de contrôle humain pour minimiser ces risques. De plus, pour les essais en conditions réelles des systèmes d’IA à haut risque, des mesures renforcées doivent protéger les personnes vulnérables en raison de leur âge ou d’un handicap.

L’AI Act exige que les individus soient informés lorsqu’ils interagissent avec un système d’IA, surtout si celui-ci traite des données biométriques pour identifier des émotions ou des intentions. De plus, les informations et notifications des systèmes d’IA doivent être accessibles aux personnes handicapées. Cela garantit que chacun puisse comprendre et interagir efficacement avec ces systèmes.

En instituant ces mesures, l’AI Act vise à favoriser un écosystème de l’IA non -seulement innovant, mais aussi profondément ancré dans la protection des droits fondamentaux et le bien-être de tous les individus, en particulier les plus vulnérables de la société au sein du marché unique.  

A l’instar de l’AI Act, au sein des autres cadres juridiques pour l’IA dans le monde, l’accent est aussi mis sur la protection des humains, et ses vulnérabilités, contre les risques associés à l’utilisation de l’IA. Bien que ces cadres puissent varier dans leurs spécificités en raison des différents contextes sociojuridiques, l’objectif principal reste constant : assurer le déploiement sûr et éthique des technologies de l’IA. Cette préoccupation universelle souligne donc l’importance primordiale de protéger les droits et le bien-être humains face aux avancées technologiques rapides.

Conseil de l’Europe  

La convention-cadre sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit du Conseil de l’Europe, bien qu’elle ne soit pas une loi ayant force obligatoire, est également en phase avec l’AI Act. Parmi les principes que les systèmes d’IA doivent respecter tout au long de leur cycle de vie figurent notamment la dignité humaine et l’autonomie individuelle, l’égalité et la non-discrimination et le respect de la vie privée et protection des données à caractère personnel. 

Il comprend plusieurs aussi dispositions visant à protéger les personnes vulnérables, telles que les personnes handicapées et les enfants. Chaque partie doit tenir compte des besoins spécifiques et des vulnérabilités de ces groupes, conformément aux lois nationales et internationales. De plus, des garanties procédurales efficaces doivent être mises en place pour les personnes affectées par les systèmes d’IA, y compris l’obligation de les informer lorsqu’elles interagissent avec une IA plutôt qu’un humain.  

Etats-Unis

Aux Etats-Unis, l’Executive Order sur l’IA met l’accent sur une approche centrée sur l’homme dans ses politiques et ses principes.

Cette approche garantit que le développement et le déploiement de l’IA soit sûr, sécurisée et digne de confiance, mettent l’accent sur les droits de l’homme, l’équité et le bien-être des personnes. Parmi les principes, figure notamment la sûreté et sécurité, la protection de la vie privée et libertés civiles, la promotion de l’équité et les droits civiques, en plus du soutien des travailleurs et la protection des consommateurs.  

Chine

La législation chinoise, l’IMMGAI (Interim Measures for the Management of Generative Artificial Intelligence Services), cible spécifiquement l’IA générative. Elle vise également à protéger les vulnérabilités humaines à travers diverses dispositions garantissant les droits et les intérêts des individus, en particulier ceux susceptibles d’être affectés par les technologies de l’IA. Ces mesures exigent que les services d’IA générative empêchent la discrimination, protègent la santé mentale et physique ainsi que la vie privée, et respectent avant tout les valeurs socialistes fondamentales. En outre, elle vise aussi à protéger les mineurs contre une dépendance excessive à l’égard des services d’IA générative.

Premier AIMS® du marché en Europe, Naaia est une solution SaaS de gouvernance et de pilotage des systèmes d’IA. Avec une vision unique de plateforme end to end et une expertise légale avancée, elle permet d’organiser, de gérer et de contrôler les systèmes d’IA. En plus d’optimiser la performance de l’entreprise, cet outil « tout en un » permet de répondre au triple impératif de confiance, de performance et de compliance des systèmes d’IA. N’hésitez pas à contacter nos équipes pour en savoir plus. 

Partager l'article :
Search
Close this search box.