Confrontation et convergence : Le droit d’auteur face à l’intelligence artificielle

5 points à retenir

  • En contribuant à la démocratisation du processus créatif, l’IA remet en question les limites du droit d’auteur.
  • Pour protéger les droits d’auteur, les législateurs du monde entier adoptent de nouvelles règles pour régir les systèmes d’intelligence artificielle.
  • La capacité des systèmes d’intelligence artificielle à créer des œuvres artificiellement générées remet en question la notion même d’auteur.
  • Formés sur des données parfois protégées par le droit d’auteur, les modèles de langage contribuent à brouiller les frontières entre les notions de « fair use » (notion héritée du droit anglo-saxon), de « transformative work » et d’atteinte aux droits.
  • En réponse aux différends émergents, des solutions de protection, des accords et des adaptations sur les plans éthique, technologique et économique sont envisagés.

Introduction

Les IA génératives peuvent aider, mais elles bouleversent aussi les règles et les concepts du droit d’auteur, brouillant la frontière entre l’innovation et la contrefaçon. L’adaptation du droit d’auteur à l’ère de l’intelligence artificielle nécessite non seulement des réformes législatives, mais aussi des stratégies éthiques, économiques et technologiques pour répondre aux défis et aux litiges émergents.

1. La voix des textes

Aperçu des contextes législatifs aux États-Unis, en Europe et en Chine.

Protéger la créativité humaine : l’approche américaine

Aux États-Unis, la législation sur le droit d’auteur est basée sur le Digital Millennium Copyright Act de 1998 et le Compendium of the U.S. Copyright Office. En mars 2023, ledit Office a publié des lignes directrices spécifiques à l’IA (Copyright Registration Guidance : Works Containing Material Generated by Artificial Intelligence), soulignant l’importance de la paternité humaine pour prétendre à la protection du droit d’auteur, et envisageant une analyse au cas par cas pour déterminer la nature humaine ou assistée par ordinateur des œuvres. Avec le décret sur l’IA du président Biden, de nouvelles orientations en matière de droit d’auteur sont attendues, notamment en ce qui concerne la violation des œuvres utilisées dans la formation à l’IA. Les procès en cours impliquant des entreprises telles que Google, Microsoft et OpenAI influenceront également la future législation sur les droits d’auteur liés à l’IA.

Le principe de transparence : un concept fondamental pour les législateurs européens

Dans l’Union européenne (UE), les États membres ont leurs propres lois sur le droit d’auteur, mais la législation européenne est basée sur une directive majeure (directive 2019/790). À partir de décembre 2023, la loi sur l’IA précise que les fournisseurs de modèles d’IA à usage général devront s’y conformer. Cette directive autorise, sous certaines conditions, la reproduction et l’extraction d’œuvres pour l’exploration de textes et de données (« scraping »). Toutefois, les titulaires de droits peuvent opter pour l’exclusion de leurs œuvres (sauf à des fins de recherche). En cas de scraping ou de data mining, les fournisseurs sont donc tenus de respecter les réserves de droits explicites. En outre, la loi sur l’IA prévoit la tenue d’une documentation technique et la publication d’un résumé des données de formation. Ainsi, le contenu généré (« sortie ») des grands modèles génératifs d’IA doit être correctement identifié comme étant généré par l’IA. Il convient également de rappeler que les fournisseurs de GPAI à source ouverte ne seront pas exemptés de la documentation sur les droits d’auteur (toutefois, les PME et les jeunes entreprises sont soumises à des obligations simplifiées, proportionnelles à leur taille).

Utilisation équitable des contenus : le point de vue chinois

La loi modifiée sur le droit d’auteur de la République populaire de Chine (2020) impose des critères plus stricts pour l’utilisation équitable et l’octroi de licences. Les mesures provisoires sur l’IA (2023) mettent l’accent sur le respect des droits de propriété intellectuelle dans le développement de l’IA et protègent les sources de données dans le cadre de la propriété intellectuelle. Cependant, le texte ne contient pas de détails plus précis.

2. IA-auteur, IA-plagiaire : questions et controverses sur le droit d’auteur à l’ère de l’IA

La popularité de la génération de contenu alimentée par l’IA s’accompagne de l’émergence de questions juridiques complexes qui restent en suspens. Si ces systèmes peuvent générer du contenu de manière autonome, comment le droit d’auteur s’applique-t-il à ces créations ? Qui les possède ? Aux échelons supérieurs de l’IA générative, Chat GPT, DALL-E, Midjourney et d’autres ont-ils le droit d’utiliser des œuvres existantes comme données d’entraînement ?

L’émergence de la question de l’auteur de l’IA

L’IA, en tant qu' »auteur », soulève la question de savoir dans quelle mesure la contribution humaine est nécessaire pour revendiquer des droits d’auteur et oblige les législateurs à tenir compte de la « quantité et de la qualité de l’intervention humaine » dans le processus créatif.

En 2023, ce débat s’est illustré dans la société civile lorsqu’un photographe allemand, Boris Eldagsen, a remporté le Sony World Photography Awards dans la catégorie « Création ». En effet, la photo qu’il a présentée n’existe pas, elle est entièrement générée par l’IA et il n’en est pas le créateur. L’intention de Boris Eldagsen était d’interpeller les organisateurs du concours. Selon lui, les images générées par l’IA ne peuvent pas rivaliser dans les mêmes catégories que celles générées par l’homme. Le photographe a refusé le prix mais a laissé sa marque.

Le pouvoir judiciaire, quant à lui, commence à prendre position. La Cour suprême britannique a refusé d’accorder un brevet au motif que l’inventeur devait être un être humain ou une entreprise, et non une machine. De même, l’Office américain des droits d’auteur a rejeté une demande de protection des droits d’auteur pour des œuvres d’art créées à l’aide d’une intelligence artificielle, bien que la création ait remporté un prix lors d’un concours d’art.

Une œuvre créée par l’IA ne pourrait donc pas être protégée par le droit d’auteur.

Utiliser des œuvres existantes pour entraîner des algorithmes d’IA

Pour générer du contenu, les systèmes d’IA se « nourrissent » d’une multitude de données provenant des bases de données de l’internet. Chatbots gérés par des robots indexant des articles de journaux normalement réservés aux abonnés, « plagiant » le contenu éditorial des journaux, formant des modèles sur la base d’œuvres littéraires protégées par le droit d’auteur… Les fournisseurs d’IA sont poursuivis en justice en raison des méthodes utilisées pour former leurs modèles linguistiques. Les plaintes pour violation des droits d’auteur se multiplient. Deux affaires récentes mettent ce point en évidence.

Début janvier 2024, Nicholas Basbanes et Nicholas Ngagoyeanes ont intenté une action en contrefaçon contre Microsoft Corp. et OpenAI. Ils accusent les deux sociétés d’avoir copié leur travail sans compensation ni autorisation pour « construire une entreprise commerciale massive ». Les deux journalistes affirment que les LLM produits ne sont pas des œuvres suffisamment transformatrices et demandent donc des dommages-intérêts pour violation du droit d’auteur, perte de la possibilité d’obtenir une licence pour leur travail et destruction du marché causée par les défendeurs. Ils demandent également une injonction permanente afin d’éviter que des préjudices similaires ne se reproduisent.

Fin décembre 2023, le New York Times (NYT) accusait déjà Microsoft et OpenAI de violation du droit d’auteur, de concurrence déloyale et de dilution de marque en raison de l’utilisation de leurs articles pour entraîner les modèles d’IA générative des défendeurs. Le journal conteste l’argument des défendeurs selon lequel cette utilisation constitue un « fair use » à des fins transformatives, affirmant que cette pratique constitue un plagiat de son contenu, non soumis à compensation, et qu’elle affecte sa qualité et sa réputation. À ce stade de la procédure, les efforts de négociation n’ont pas abouti.

Ces affaires très médiatisées reposent sur des questions communes. Ils démontrent que le droit d’auteur devient de plus en plus flou et difficile à protéger. En particulier, l’IA brouille les notions de « fair use » et de « transformative work ».

Dans les deux cas, les plaignants refusent de considérer les LLM comme des œuvres transformatrices. Ces modèles sont partiellement formés à partir d’œuvres protégées, sans autorisation, et sont capables de retranscrire des passages entiers, une caractéristique qui les empêcherait d’être considérés comme des œuvres transformatrices. L’IA complique également la notion de « fair use » (utilisation légale d’une œuvre protégée par des droits d’auteur). Les profits générés par les systèmes d’IA suggèrent que l’entraînement des modèles à l’aide d’œuvres protégées ne poursuit pas un objectif de recherche, qui relève du « fair use ».

3. Face au mécontentement, bonnes pratiques et accords : des solutions intermédiaires

Consentement, rémunération, supervision de l’utilisation de l’IA. Dans le secteur du divertissement et des médias, de nombreuses voix s’élèvent pour trouver un équilibre entre le développement de cette technologie et la protection des créateurs.

L’éthique au service d’une utilisation raisonnée et raisonnable des systèmes d’IA

Pour résoudre ou atténuer les conflits potentiels, des propositions émergent, notamment sur la question de l’attribution de la paternité d’une œuvre à une intelligence artificielle. En France, Librinova, maison d’édition à compte d’auteur, a choisi d’adhérer au label « Création humaine ». Ce label certifie qu’une œuvre écrite, audiovisuelle ou musicale a bien été créée par un être humain.

Des initiatives sont également en cours dans les médias. En France, le Comité directeur sur les médias et la société de l’information (CDMSI) a adopté des lignes directrices sur l’utilisation responsable des systèmes d’intelligence artificielle (IA) dans le journalisme. Reconnaissant les avantages des systèmes d’intelligence artificielle, ces lignes directrices rappellent les principes fondamentaux régissant leur mise en œuvre au sein d’une entreprise de médias, notamment la mise en place d’une évaluation des risques appropriée et de contrôles de supervision humaine. Ce document concerne également les fournisseurs externes, les obligeant à assumer la responsabilité des solutions d’IA qu’ils proposent.

Contre-mesures technologiques contre la violation des droits d’auteur

Pour se prémunir contre l’utilisation frauduleuse de leur contenu, les auteurs peuvent apposer un label, c’est-à-dire un filigrane, permettant d’identifier l’authenticité d’une image. En plus de permettre la traçabilité du contenu, ce filigrane a également un effet dissuasif. Aux États-Unis, cette pratique est protégée par le Digital Millennium Copyright Act (DNCA), qui interdit à quiconque de la supprimer. Il appartient à l’auteur d’attester de la présence de ce label sur ses œuvres. Dans le même esprit, un outil appelé Nightshade modifie les images de manière imperceptible pour le spectateur. Les modèles d’apprentissage, quant à eux, perçoivent cette transformation, ce qui les oblige à catégoriser les visuels de manière incorrecte.

En matière de violation des droits d’auteur, l’un des nœuds du problème réside dans les données utilisées pour former les modèles. Pour démontrer l’absence d’intention malveillante, les développeurs sont donc encouragés à citer les travaux utilisés, à suivre les métadonnées des données sources et les balises. Du côté des auteurs, l’opt-out, ou le blocage de la collecte de données par des robots d’indexation, est une pratique utilisée pour lutter contre la violation des droits d’auteur. CNN, Reuters, New York Time, France Médias Monde, Radio France et de nombreux autres médias dans le monde ont opté pour cette approche. Ils espèrent ainsi favoriser l’adoption d’un accord similaire à celui conclu avec des plateformes telles que Google ou Facebook pour la rémunération des droits voisins. Certaines plateformes adoptent l’approche inverse et s’autorégulent. Stable Diffusion, par exemple, a accepté d’exclure de ses modèles de formation les œuvres de Greg Rutkowski, créateur d’œuvres numériques, dont le style est apparu dans un très grand nombre d’invites (plus de 400 000 demandes). Seul bémol, face à la popularité croissante des œuvres de l’artiste, un développeur a créé un nouveau modèle, formé sur ses œuvres et donc capable de les imiter, contre sa volonté…

Partenariats et compensations : des solutions économiques pour le maintien des droits d’auteur

Pour trouver un équilibre entre le respect des droits d’auteur et le développement des systèmes d’IA, les principaux acteurs du secteur s’orientent vers des accords. Ce principe est soutenu par les artistes, notamment aux Etats-Unis, où l’Authors Guild milite pour la création de licences collectives.

Des programmes d’indemnisation des artistes sont progressivement mis en place. Par exemple, Adobe rémunère les contributeurs dont le contenu a été utilisé pour la formation de Firefly, son modèle d’IA génératif formé sur des images provenant d’Adobe Stock. De même, Shutterstock a mis en place un fonds de contribution et signé un contrat de six ans avec OpenAI pour l’utilisation de ses images.

Dans le même esprit, le groupe de presse allemand Axel Springer a signé un accord avec OpenAI. Moyennant une redevance, l’entreprise est autorisée à utiliser les articles publiés sur les sites d’information du groupe pour promouvoir le Chat GPT. Prenant effet au premier trimestre 2024, Axel Springer considère cet accord comme un nouveau modèle de financement, de génération de trafic et de monétisation de ses contenus.

Conclusion

Les systèmes d’intelligence artificielle ont modifié la perception du droit d’auteur. Désormais, les créateurs devront veiller sur leurs contenus, car l’émergence de l’IA générative les oblige à jouer un rôle actif dans la protection de leurs droits. Ce contexte exige également une réflexion collective et globale, ce qui met les législateurs à l’épreuve.

D’ici 2030, « le marché mondial de l’IA dans les médias et le divertissement devrait atteindre 99,48 milliards de dollars », ce qui donne la mesure du défi qu’elle représente.