Vai direttamente ai contenuti
Nos styles
Nos artistes
World Art
Produits dérivé
Qui possède une image générée par IA ? Le vide juridique de 100 milliards de dollars Univ'île

Qui possède une image générée par IA ? Le vide juridique de 100 milliards de dollars

En janvier 2025, le Getty Museum de Los Angeles a annoncé l'acquisition de sa première photographie générée par intelligence artificielle (IA). L'œuvre, Cristian en el Amor de Calle de Matías Sauter Morera, a intégré l'exposition The Queer Lens. Paul Martineau, conservateur du musée, a balayé les objections éthiques : l'artiste mobilise « des centaines de commandes et de choix qui prennent des mois ». Au même moment, à quelques milliers de kilomètres, Getty Images — entité juridiquement distincte du musée, mais liée par le nom et la lignée familiale — poursuivait Stability AI devant les tribunaux britanniques et américains pour violation massive de droits d'auteur.

Un même nom. Deux positions irréconciliables. Ce paradoxe condense le chaos juridique d'une industrie estimée à plus de 100 milliards de dollars, qui avance sans boussole.

Les fronts judiciaires se multiplient

Le compteur des litiges s'emballe. Près de 60 actions en justice visent les entreprises d'IA générative. Cinq procès majeurs se déroulent simultanément devant les juridictions américaines et britanniques. Le rythme des dépôts de plainte ne faiblit pas. Il accélère.

L'affaire Getty Images contre Stability AI a connu un premier dénouement au Royaume-Uni le 4 novembre 2025. Le juge a statué que les poids d'un modèle d'IA — ces paramètres numériques qui encodent les connaissances acquises lors de l'entraînement — ne constituent pas des « copies » au sens du droit d'auteur britannique. Getty a perdu, pour l'essentiel. Onde de choc dans le secteur : si les poids du modèle ne sont pas des copies, l'entraînement sur des œuvres protégées pourrait échapper aux filets du copyright. Getty Images a redéposé plainte en Californie en août 2025, à la recherche d'un terrain plus favorable.

L'affaire Andersen contre Stability AI, déposée en janvier 2023 sous forme de class action, atteindra le stade du procès le 8 septembre 2026. Des artistes accusent Stability AI, Midjourney et DeviantArt d'avoir entraîné leurs modèles sur des œuvres protégées sans consentement ni compensation. Cette date, désormais imminente, pourrait produire la première décision de fond sur la légalité de l'entraînement de modèles génératifs aux États-Unis.

Les géants du divertissement ont ouvert leur propre front. Disney et Universal ont assigné Midjourney le 11 juin 2025, réclamant 150 000 dollars par œuvre. L'enjeu financier, compte tenu du volume d'œuvres potentiellement concernées, se chiffre en milliards. Ce n'est plus une guérilla d'artistes indépendants. Les studios disposent des ressources pour mener ces batailles jusqu'à leur terme.

Quand un illustrateur freelance attaque Stability AI, l'entreprise peut jouer la montre. Face aux équipes juridiques de Disney, cette stratégie ne tient plus.

Le précédent Thomson Reuters : fin de l'innocence

Une décision rendue en février 2025 dans l'affaire Thomson Reuters contre Ross Intelligence a tracé une ligne rouge que l'industrie n'avait pas anticipée. Le tribunal a rejeté la défense du fair use — ce mécanisme du droit américain qui permet, sous conditions, l'utilisation d'œuvres protégées sans autorisation — pour l'entraînement d'un système d'IA sur des contenus propriétaires.

Jusqu'ici, les entreprises d'IA générative fondaient leur défense sur quatre piliers : caractère transformatif de l'usage, absence de reproduction directe, bénéfice pour le public, absence de préjudice commercial. Thomson Reuters contre Ross a fait voler en éclats le premier. Le juge a considéré que l'utilisation de contenus Westlaw pour entraîner un concurrent n'avait rien de transformatif. Le signal est limpide : le fair use n'est pas un passe-droit universel pour l'entraînement de modèles d'IA.

Pour le New York Times, qui poursuit OpenAI, cette jurisprudence est une munition précieuse. En janvier 2026, un juge a ordonné la production de 20 millions de logs de ChatGPT dans le cadre de la procédure. L'ampleur de cette injonction témoigne de la gravité avec laquelle la justice américaine traite ces litiges. Chaque conversation stockée par OpenAI devient une pièce à conviction potentielle, susceptible de démontrer que le modèle reproduit des contenus protégés. L'enjeu dépasse le cas du Times : si les logs révèlent une reproduction systématique d'articles protégés, l'ensemble des éditeurs de presse disposerait d'un précédent massif pour réclamer des compensations.

Document juridique déchiqueté de bas en haut, chaque bande se transformant en drapeau national différent (États-Unis, Union européenne, Japon). Moitié supérieure intacte, moitié inférieure chaotique. Fragmentation des juridictions.

Qui est l'auteur ? Une question sans réponse

La cour d'appel du circuit de Washington a tranché une première fois le 18 mars 2025 dans l'affaire Thaler contre Perlmutter. Stephen Thaler avait déposé une demande de copyright pour une image entièrement générée par son système d'IA, Creativity Machine. Rejet confirmé : « L'auteur humain est requis pour la protection par le droit d'auteur. » La formulation ne laisse aucune ambiguïté. Une IA seule ne peut pas détenir de copyright.

L'US Copyright Office a enfoncé le clou dans la deuxième partie de son rapport, publié le 29 janvier 2025 : « Les prompts seuls sont insuffisants pour établir la qualité d'auteur. » Formuler une instruction textuelle, aussi élaborée soit-elle, ne fait pas de vous l'auteur de l'image produite. Le gouffre juridique est vertigineux. Si personne ne détient le copyright sur une image générée par IA, cette image tombe dans le domaine public dès sa création. Quiconque peut la copier, la modifier, la commercialiser. Pour les entreprises qui investissent dans la création de contenus générés par IA — campagnes publicitaires, illustrations éditoriales, assets de jeux vidéo —, l'absence de protection représente un risque commercial majeur.

Un concurrent peut reprendre librement une image générée par IA sans conséquence légale.

L'affaire Zarya of the Dawn, tranchée en février 2023 par l'US Copyright Office, avait esquissé une voie médiane. Kris Kashtanova a obtenu un copyright partiel sur sa bande dessinée : les éléments humains — sélection, arrangement, texte — étaient protégés, les images générées par Midjourney ne l'étaient pas. Un « copyright granulaire », distinguant couche par couche ce qui relève de la création humaine.

Jason Allen, créateur de Théâtre d'Opéra Spatial — cette œuvre générée par Midjourney qui a remporté un prix d'art au Colorado en 2022 — s'est vu refuser le copyright et conteste la décision en justice. Son cas incarne le désarroi de créateurs qui investissent des dizaines d'heures dans la formulation, l'itération et la curation d'images générées, pour se voir dénier toute paternité juridique.

Ce débat a un précédent. Au milieu du XIXe siècle, Nadar et ses contemporains ont bataillé devant les tribunaux français pour faire reconnaître la photographie comme acte de création, non comme produit mécanique. L'argument des détracteurs était identique : la machine fait le travail, l'opérateur n'est qu'un intermédiaire. Il a fallu des décennies pour que le droit s'adapte. L'histoire bégaie, avec une différence de taille : l'IA générative n'a pas le luxe d'attendre cinquante ans.

Trois continents, trois doctrines

La fragmentation juridique internationale ajoute une couche de complexité que les entreprises mondiales peinent à gérer.

Le Japon a choisi la permissivité maximale. L'article 30-4 de sa loi sur le droit d'auteur, amendé en 2018 et entré en vigueur en 2019, autorise l'utilisation d'œuvres protégées à des fins d'analyse informatique — y compris l'entraînement de modèles d'IA — sans restriction notable. Tokyo a fait un pari stratégique : attirer les investissements en offrant l'environnement légal le plus accueillant au monde. Les entreprises d'IA y trouvent un havre. Les créateurs japonais, eux, se retrouvent exposés à une aspiration de masse de leurs œuvres sans protection.

L'Union européenne a opté pour la voie réglementaire. Le AI Act impose, depuis le 2 août 2025, des obligations de transparence aux fournisseurs de modèles d'IA à usage général (GPAI, General-Purpose AI). Ces entreprises doivent documenter les données utilisées pour l'entraînement et respecter le droit d'auteur européen. L'application effective est prévue pour le 2 août 2026. La sanction pour les fournisseurs de modèles GPAI — 3 % du chiffre d'affaires annuel mondial — donne la mesure de l'enjeu : pour une entreprise valorisée à 100 milliards d'euros, l'amende pourrait atteindre trois milliards. L'approche tente de concilier innovation et protection, mais sa complexité fait craindre un ralentissement compétitif face au Japon et aux États-Unis.

Les États-Unis laissent les tribunaux décider. Sans législation fédérale spécifique, la doctrine du fair use reste le champ de bataille principal. Mais ce mécanisme, conçu pour des cas individuels, n'a jamais été prévu pour arbitrer une transformation industrielle de cette ampleur. Chaque décision ajoute une pièce au puzzle sans que le dessin d'ensemble ne se clarifie. Le rejet du fair use dans Thomson Reuters contre Ross contredit l'optimisme des entreprises d'IA. La décision britannique sur les poids de modèle dans Getty contre Stability AI ne lie pas les juges américains.

Cette divergence crée un phénomène de « forum shopping » juridique. Les entreprises d'IA cherchent les juridictions les plus favorables. Les ayants droit choisissent les tribunaux les plus protecteurs. Le contentieux se globalise, le droit reste local. Une entreprise qui entraîne son modèle au Japon, le commercialise depuis les États-Unis et sert des clients européens se retrouve soumise à trois régimes incompatibles. L'absence de cadre international — pas de « convention de Berne de l'IA » à l'horizon — garantit que cette fragmentation persistera au moins jusqu'à la fin de la décennie.

Trois portes côte à côte. Gauche (Japon) : grande ouverte, lumière dorée, paysage numérique fluide. Centre (UE) : barricadée de rubans bleus réglementaires, gris-bleu institutionnel. Droite (USA) : entrouverte, salle d'audience visible. Matériaux différents : verre, béton, bois. Analyse comparative des régimes juridiques.

Au-delà de l'art : l'effet domino

Réduire cette bataille au seul monde de l'art serait une erreur. Les précédents qui s'établissent aujourd'hui dans les litiges artistiques définiront les règles applicables à l'ensemble des contenus utilisés pour entraîner des modèles d'IA. Textes journalistiques, bases de données juridiques, code informatique, compositions musicales, données médicales — tout est concerné. Un juge qui décide si Midjourney a le droit d'ingérer des millions d'illustrations fixe par ricochet les conditions dans lesquelles un modèle de langage peut absorber des articles de presse ou des brevets pharmaceutiques. L'industrie repose sur un postulat juridique non validé : que les données d'entraînement sont disponibles sans coût.

Le règlement à 1,5 milliard de dollars consenti par Anthropic dans l'affaire Bartz v. Anthropic (septembre 2025), concernant l'utilisation de livres piratés pour l'entraînement de ses modèles, illustre l'ampleur des montants en jeu. Nicole Sales Giles, directrice de l'art numérique chez Christie's, défend une lecture plus nuancée : « L'IA apprend tout pour créer quelque chose de nouveau. C'est de l'influence. Pas du vol. » Cette position repose sur une analogie avec l'apprentissage humain : un peintre qui étudie les maîtres ne leur vole rien.

Karla Ortiz, artiste et figure de proue de la résistance des créateurs, répond sans détour : « Christie's ne se soucie tout simplement pas des artistes. » L'opposition entre ces deux visions n'est pas que philosophique. Elle traduit un conflit d'intérêts économiques entre les institutions qui monétisent l'art — maisons de vente, galeries, plateformes — et ceux qui le produisent. Les artistes dont les œuvres alimentent les modèles voient leur marché se contracter pendant que la valeur qu'ils ont contribué à créer enrichit des entreprises technologiques.

Le paradoxe Getty, évoqué en ouverture, incarne cette tension. Que le musée célèbre la création assistée par IA pendant que l'agence photographique la poursuit en justice n'est pas une incohérence : c'est le reflet fidèle d'un monde où les mêmes acteurs sont simultanément bénéficiaires et victimes de la disruption. Le musée valorise le geste créatif de l'artiste qui utilise l'IA comme outil. L'agence défend son catalogue de millions d'images aspirées sans permission. Les deux positions sont défendables. Aucune ne résout le problème.

Rangée de dominos tombant en cascade de gauche à droite. Formes : tableau (rouge, primauté), journal, note musicale, accolade de code, caducée médical. Composition diagonale dynamique montrant l'effet domino inévitable. Illustration éditoriale data-viz sur la réaction en chaîne des droits créatifs.

Le mur de septembre 2026

Cinq dates vont structurer l'année juridique de l'IA générative. Le procès Andersen contre Stability AI, le 8 septembre 2026, sera le premier véritable test de la légalité de l'entraînement sur des œuvres protégées aux États-Unis. L'entrée en vigueur de l'application du AI Act européen, le 2 août 2026, marquera le début d'un régime de sanctions réelles. La procédure Disney et Universal contre Midjourney montera en puissance. L'affaire du New York Times contre OpenAI, avec ses 20 millions de logs à analyser, livrera peut-être ses premières conclusions sur la reproduction de contenus protégés. Le recours de Jason Allen sur Théâtre d'Opéra Spatial continuera de tester les limites du copyright pour les œuvres hybrides.

Ces décisions ne seront pas simplement techniques. Elles dessineront la répartition de la valeur dans une industrie qui génère déjà des dizaines de milliards de dollars de revenus annuels. Si les tribunaux américains suivent la logique Thomson Reuters et rejettent le fair use pour l'entraînement, les entreprises d'IA devront négocier des licences massives — ou cesser d'utiliser des contenus protégés. Si la logique britannique du « les poids ne sont pas des copies » s'impose, les créateurs perdront tout levier juridique.

L'issue la plus probable se situe entre ces deux extrêmes. Un régime de licences obligatoires, comparable à celui qui régit la musique en streaming, pourrait émerger. Les créateurs recevraient une rémunération modeste mais systématique. Les entreprises d'IA obtiendraient la sécurité juridique qu'elles réclament. Les détails — taux de rémunération, mécanismes de calcul, instances d'arbitrage — restent à inventer. Le règlement Anthropic à 1,5 milliard de dollars suggère que certaines entreprises préfèrent payer plutôt que risquer un verdict défavorable. Cette logique transactionnelle pourrait fixer les normes avant même que les juges ne statuent.

Comme pour la photographie au temps de Nadar, le droit finira par rattraper la technologie. La question n'est pas de savoir si un cadre légal émergera, mais qui l'écrira : les juges, les législateurs ou les entreprises elles-mêmes, à coups de règlements transactionnels milliardaires. La réponse appartient aux douze prochains mois. Elle concernera quiconque produit, possède ou utilise du contenu — c'est-à-dire tout le monde.


Cet article fait partie du dossier « Intelligence artificielle et industries créatives ». Voir aussi : l'analyse du marché de l'art IA (article 1) et l'enquête sur la fracture sociale provoquée par l'automatisation créative (article 4).

Lascia un commento
Si prega di notare che, prima di essere pubblicati, i commenti devono essere approvati.