Search
Close this search box.

L’IA et l’éthique : quels enjeux?

Dernière mise à jour le 23/08/2023 

5 points à retenir :

  • L’IA emporte de nombreux enjeux éthiques en particulier dans les domaines de l’emploi et de la santé
  • Les systèmes d’IA générative pourraient affecter 300 millions d’emplois à temps plein dans le monde
  • Néanmoins, selon l’OCDE, l’IA influerait davantage sur la qualité que sur la quantité des emplois
  • De nombreuses solutions existent pour favoriser une IA éthique comme le principe de loyauté et le principe de vigilance
  • L’Union européenne, les Etats-Unis, le Canada et le Chine ont intégré l’éthique comme principe fondamental dans leurs règlementations

Introduction

Lorsqu’on parle d’intelligence artificielle (IA), l’éthique est au cœur de toutes les préoccupations. L’éthique dans le numérique se définit comme l’usage responsable, durable et raisonné de l’IA. Une IA éthique doit donc être capable d’opérer sans discriminations, d’avoir un impact positif sur l’environnement et sur la société. Cet article abordera les enjeux éthiques de l’IA, en particulier la question de son impact sur l’emploi, et présentera les solutions et recommandations pour une IA éthique.

Les enjeux éthiques de l’IA

A première vue, l’intelligence artificielle et l’éthique semblent diverger. En effet, l’éthique approche les cas moraux dans leur singularité tandis que l’IA, notamment générative, s’appuie sur des écritures plutôt formelles, avec peu de nuances. La CNIL a publié un rapport en 2017 sur les enjeux éthiques des algorithmes et de l’intelligence artificielle. Selon ce rapport, les problématiques soulevées par l’IA sont nombreuses et concernent : les biais, les discriminations et l’exclusion ; la fragmentation algorithmique ; l’identité humaine ; ou encore la qualité, la quantité et la pertinence des données.

Les discriminations sont en effet l’un des grands problèmes éthiques de l’IA. Plusieurs exemples aux Etats-Unis l’illustrent, notamment le cas de la compagnie d’assurance State Farm qui a fait l’objet d’une plainte pour son usage d’algorithmes favorisant les propriétaires blancs, qui ont trois fois plus de chances que les propriétaires noirs de voir leur demande traitée rapidement.

L’impact de l’IA sur l’emploi

Selon un rapport de Goldman Sachs du 28 mars 2023, l’IA et en particulier les systèmes d’IA dits « génératifs » pourraient affecter 300 millions d’emplois à temps plein dans le monde, automatisant alors 25% de l’ensemble du marché du travail. Certains métiers pourront en effet être réalisés par l’IA générative. C’est le cas du métier de programmeur informatique où l’IA générative peut écrire du code informatique et repérer les erreurs, le cas du métier d’analyste financier manipulant de larges volumes de données numériques ou encore celui d’assistant juridique consistant à synthétiser des informations.

La plateforme DALL-E, développée par Open AI et capable de créer très rapidement des images à partir de descriptions textuelles, impactera également les métiers en matière de création artistique et de graphisme.

Néanmoins, ce risque est à nuancer car l’IA va aussi créer de nombreux métiers. Selon l’étude du Forum Economique Mondial, Future of Jobs 2023, 69 millions d’emplois seront créés dans les cinq prochaines années grâce à l’IA. Ces outils peuvent également permettre à l’humain de se recentrer sur des sujets où il a une réelle expertise, et annuler les tâches répétitives. Nous allons assister à une transformation des emplois avec une plus-value de l’humain.

l’IA « influence davantage sur la qualité que sur la quantité des emplois »

Une étude de l’OCDE datée du 14 juillet 2023 indique que l’IA « influence davantage sur la qualité que sur la quantité des emplois ». Il ressort de l’enquête que parmi les travailleurs qui utilisent l’IA dans les secteurs de la finance et manufacturier, 63% se déclarent plus épanouis sur le plan professionnel. Selon ce même rapport, « les travailleurs et les employeurs déclarent que l’IA peut réduire les tâches fastidieuses et dangereuses, ce qui améliore la motivation et la sécurité physique des travailleurs ». Même s’il y a ces effets positifs, l’OCDE préconise le dialogue social et l’action publique pour encourager les employeurs à former leurs collaborateurs et les accompagner dans une démarche de transformation digitale de leurs métiers.

Quelles solutions pour une IA éthique ?

Pour faire face à ces enjeux éthiques, des solutions sont proposées par divers organismes publics dans des domaines où l’IA peut avoir un impact négatif. En 2017, la CNIL publie un rapport à la suite d’un débat public qu’elle a animé au sujet des enjeux éthiques des algorithmes et de l’IA. En ressort deux principes fondateurs pour « une IA au service de l’Homme ». Tout d’abord, un principe de loyauté devrait être appliqué à tous les algorithmes afin de protéger les données personnelles et faire en sorte que l’intérêt des utilisateurs prime. Ensuite, un principe de vigilance permettrait une « réponse directe aux exigences qu’imposent ces objets technologiques du fait de leur nature imprévisible ».

Recommandations de la CNIL

En plus de ces deux principes, la CNIL recommande aux pouvoirs publics et organismes privés de :

  1. Former à l’éthique tous les acteurs-maillons de la « chaîne algorithmique » (concepteurs, professionnels, citoyens) : l’alphabétisation au numérique doit permettre à chaque humain de comprendre les ressorts de la machine.
  2. Rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs.
  3. Travailler le design des systèmes algorithmiques au service de la liberté humaine, pour contrer l’effet « boîtes noires ».
  4. Constituer une plateforme nationale d’audit des algorithmes.
  5. Encourager la recherche sur l’IA éthique et lancer une grande cause nationale participative autour d’un projet de recherche d’intérêt général.
  6. Renforcer la fonction éthique au sein des entreprises.

D’autres recommandations préconisent d’éduquer dès le plus jeune âge à l’IA afin d’éviter des inégalités mais également de former les professionnels tout au long de leur parcours. Dans le domaine de la santé, le livre blanc du Conseil National de l’Ordre des Médecins (CNOM) « Médecins et patients dans le monde des data, des algorithmes et de l’Intelligence Artificielle » évoque la nécessité de l’intégration de la notion d’éthique dans l’IA : « dans ce tourbillon technologique en marche accélérée, nous devons nous proposer […] de réussir à organiser et assurer la complémentarité entre l’homme et la machine, le premier conservant la capacité éthique de garder toujours le dernier mot ».

Les règlementations d’IA dans le monde : l’éthique comme principe fondamental

Afin de mettre en place ces solutions et recommandations, divers pays développent une régulation sur l’IA en intégrant les principes éthiques. L’IA éthique est aujourd’hui un principe fondamental et mondial. La Recommandation sur l’éthique de l’IA adoptée par les 193 Etats membres de l’UNESCO en novembre 2021 l’illustre. Il s’agit en effet du tout premier instrument normatif mondial sur le sujet et permet de constituer une base de grands principes éthiques à respecter comme l’équité et la non-discrimination, le droit au respect de la vie privée ou encore la surveillance et la décision humaines.

En Europe :

L’Union européenne avec l’AI ACT, en cours de débats, a pour principal objectif de « faire de l’Union un acteur mondial de premier plan dans le développement d’une intelligence artificielle sûre, fiable et éthique », ainsi que de garantir « la protection de principes éthiques ».

Dans les derniers amendements de l’AI ACT en date du 14 juin 2023, le Parlement européen a intégré de nouvelles dispositions relatives à l’éthique. Le considérant 9bis évoque cette importance : « Il importe de noter que les systèmes d’IA devraient tout mettre en œuvre pour respecter les principes généraux établissant un cadre de haut niveau qui favorise une approche cohérente et centrée sur l’humain d’une IA éthique et digne de confiance ».

Les obligations en matière d’éthique sont ainsi très présentes dans l’AI ACT : les opérateurs devront tout mettre en œuvre pour développer et utiliser des systèmes d’IA centrés sur l’humain, éthiques et dignes de confiance. Également, des garde-fous devront être prévus pour veiller au développement et à l’utilisation d’une IA éthique « qui respecte les valeurs de l’Union et de la charte ».

Ce n’est d’ailleurs pas la première fois que l’Union européenne s’intéresse au sujet. En effet, en 2020, le Parlement européen avait adopté une résolution contenant des recommandations à la Commission concernant un cadre pour les aspects éthiques de l’intelligence artificielle, de la robotique et des technologies connexes. Parmi ces recommandations pour une IA éthique, figuraient : une IA axée sur l’Homme et développée par l’Homme ; une approche basée sur une évaluation des risques ; une bonne gouvernance ; ou encore une absence de biais et de discriminations.

Aux Etats-Unis et Canada :

Les Etats-Unis cherchent également à intégrer l’éthique dans leur régulation sur l’IA. Ils ont à ce titre mis en place une charte des droits reposant sur 5 grands principes dont la protection contre la discrimination algorithmique et l’utilisation et la conception des systèmes d’IA de manière équitable. Pour en savoir davantage sur la règlementation américaine en matière d’IA, un article traitant de ce sujet est disponible sur naaia.ai.

Le Canada dans sa loi sur l’IA et les données (LIAD) inclut le principe d’éthique dans une approche fondée sur les risques afin de prévenir les préjudices et les résultats discriminatoires.

En Chine

Enfin, la Chine a développé six lignes directrices pour une IA éthique dont le contrôle de l’humain sur les SIA, l’amélioration de la condition humaine ou encore la promotion de l’équité et de la justice.

Le monde scientifique s’intéresse également de plus en plus au sujet de l’Ethique et l’IA. Par exemple, Vanessa Nurock, maître de conférences en théorie politique et éthique, s’interroge sur l’idée que l’IA puisse être genrée. Son étude arrive à la conclusion que l’IA souffre de nombreux biais discriminatoires envers le genre, comme le montre l’exemple de l’algorithme d’Amazon chargé de trier des CV où ceux contenant des termes féminins étaient systématiquement dévalués.

Concernant le secteur de la santé, Julien Duguet, Gauthier Chassang et Jérôme Béranger se sont intéressés à la question de l’éthique relative à l’utilisation de l’IA et notamment se sont demandé : « jusqu’où peut-on laisser aux algorithmes et à ceux qui les conçoivent la maitrise des décisions médicales ? ». Ils préconisent que les algorithmes devraient être « éthiques et moraux dès leur élaboration jusqu’à leur usage, du fait que la responsabilité appartient à la fois aux concepteurs qu’aux propriétaires ».

Ces auteurs sont de plus en plus nombreux à écrire sur le sujet et il est certain que, à l’heure où l’on assiste à une généralisation des applications algorithmiques, l’éthique de l’IA fera encore l’objet de nombreuses réflexions dans le futur…

Partager l'article :
Search
Close this search box.