Newsletter

Le paradoxe de la créativité : l'intelligence artificielle, le droit d'auteur et l'avenir de l'humanité

"Je ne me sens pas flatté. J'ai l'impression qu'on m'a volé quelque chose que j'ai construit pendant des années" - Greg Rutkowski, dont le nom apparaît dans 1,2 million d'invites de Stable Diffusion. Le "style Ghibli" révèle la vraie différence : Van Gogh comprenait les principes esthétiques japonais, l'IA extrait les corrélations statistiques entre les pixels. Stanford démontre que les modèles régénèrent des images presque identiques dans 3 % des cas. Ce n'est pas de l'inspiration, c'est de la mémorisation. Plus de 250 000 artistes ont adopté Glaze et Nightshade pour se défendre.

Créativité humaine ou artificielle : où se situe la différence (et pourquoi le style Ghibli nous apprend quelque chose)

Le débat sur l'intelligence artificielle et le droit d'auteur s'est considérablement intensifié en 2024-2025. Il ne s'agit plus de discussions théoriques : le New York Times a poursuivi OpenAI pour violation du droit d'auteur (décembre 2023), Getty Images a poursuivi Stability AI et des milliers d'artistes ont intenté des recours collectifs. Les entreprises spécialisées dans l'IA répondent que leurs systèmes "apprennent" comme les humains, mais est-ce vraiment le cas ?

La créativité humaine s'est toujours développée grâce à des liens : Shakespeare s'est inspiré de chroniques historiques et de contes populaires, Van Gogh a étudié les estampes japonaises, les Beatles ont commencé par jouer du rock américain. Les artistes réinterprètent toujours des œuvres antérieures. L'intelligence artificielle, disent les entreprises technologiques, fait la même chose. Mais le cas du "style Ghibli" révèle à quel point ce récit est simpliste.

L'affaire Ghibli : quand le style devient controverse

Tapez "style Ghibli" dans Midjourney ou DALL-E et vous obtiendrez des images qui ressemblent étrangement aux chefs-d'œuvre de Hayao Miyazaki : couleurs pastel, nuages cotonneux, paysages oniriques, personnages aux grands yeux. C'est techniquement impressionnant. C'est aussi profondément problématique.

Le Studio Ghibli a mis des décennies à développer cette esthétique distinctive : choix précis de la palette de couleurs, techniques d'animation traditionnelles et philosophie artistique enracinée dans la culture japonaise et la vision personnelle de Miyazaki. Lorsqu'un modèle d'IA reproduit ce "style" en quelques secondes, est-ce qu'il "apprend" vraiment comme Miyazaki a appris des animations Disney et des mangas japonais ? Ou recombine-t-il simplement des motifs visuels extraits de milliers d'images de Ghibli sans autorisation ?

La différence n'est pas philosophique, elle est juridique et économique. Selon une analyse de Stanford publiée dans arXiv (Carlini et al., 2023), les modèles de diffusion tels que Stable Diffusion peuvent régénérer des images presque identiques à partir de l'ensemble d'apprentissage dans environ 3 % des cas lorsqu'ils sont sollicités par des invites spécifiques. Il ne s'agit pas d'une "inspiration", mais d'un stockage et d'une reproduction.

L'artiste numérique polonais Greg Rutkowski a découvert que son nom apparaissait dans 1,2 million de messages sur Stable Diffusion, devenant ainsi, sans le vouloir, l'un des "styles" les plus demandés, sans avoir jamais donné son accord ni reçu de compensation. Comme il l'a déclaré au MIT Technology Review, "je ne me sens pas flatté. J'ai l'impression qu'on m'a volé quelque chose que j'ai construit pendant des années.

La controverse sur l'éducation : les chiffres de 2024-2025

L'entraînement à l'IA a atteint des dimensions sans précédent. LAION-5B, l'un des ensembles de données les plus utilisés pour les modèles d'images, contient 5,85 milliards de paires image-texte recueillies sur l'internet, y compris des œuvres protégées par des droits d'auteur. GPT-4 a été formé sur des portions massives de l'internet, y compris des articles payants, des livres et des codes de logiciels propriétaires.

Actions en justice importantes en cours :

  • New York Times c. OpenAI/Microsoft (décembre 2023) : Demande de dommages-intérêts d'un milliard de dollars, accusation d'entraînement au TPG sur des décennies d'articles protégés.
  • Getty Images contre Stability AI (février 2023) : Accusé d'avoir utilisé plus de 12 millions d'images Getty sans licence
  • Recours collectif des artistes contre Stability AI/Midjourney/DeviantArt (janvier 2023) : des milliers d'artistes intentent une action en justice pour violation systématique des droits d'auteur.
  • Universal Music contre Suno et Udio (juin 2024) : Les plateformes de génération de musique accusées de s'entraîner sur des catalogues protégés

Les entreprises spécialisées dans l'IA défendent cette pratique en invoquant le "fair use" (usage loyal) prévu par la législation américaine : elles font valoir que la formation est "transformative" et ne remplace pas le marché d'origine. Mais plusieurs tribunaux remettent en cause cette interprétation.

La juge Katherine Forrest, dans l'affaire Getty v. Stability AI, a rejeté la requête en irrecevabilité en janvier 2024, permettant à l'affaire de se poursuivre : "La question de savoir si l'entraînement des modèles d'IA constitue un usage loyal est complexe et nécessite un examen approfondi des faits. Traduction : les entreprises spécialisées dans l'IA ne peuvent pas simplement invoquer le fair use et s'en contenter.

Accords commerciaux : la solution du marché émerge

Face à la pression juridique, les entreprises d'IA ont commencé à négocier des licences. OpenAI a conclu des accords avec :

  • Associated Press (juillet 2023) : Accès aux archives d'actualités en échange d'une licence
  • Axel Springer (décembre 2023) : Accord d'utilisation du contenu de Politico, Business Insider
  • Financial Times (avril 2024) : Licence de contenu pour la formation
  • News Corp (mai 2024) : Accord de 250 millions de dollars pour 5 ans, accès au Wall Street Journal, Barron's, New York Post

Google a signé des accords similaires avec Reddit, Stack Overflow et divers éditeurs. Anthropic a négocié avec des éditeurs pour l'utilisation de livres.

Mais ces accords ne concernent que les grands éditeurs qui ont un pouvoir de négociation. Des millions de créateurs individuels - artistes, photographes, écrivains indépendants - ne sont toujours pas indemnisés pour les œuvres utilisées dans des formations déjà achevées.

Apprentissage humain ou apprentissage automatique : la vraie différence (Au-delà des statistiques)

L'idée selon laquelle "l'IA apprend comme les humains" est techniquement trompeuse. Examinons les différences fondamentales :

Échelle et vitesse : un artiste humain étudie des centaines ou des milliers d'œuvres au cours de sa vie. Le GPT-4 a été formé sur des trillions de mots. Stable Diffusion sur des milliards d'images. L'échelle est incomparable et dépasse toute définition raisonnable de l'"inspiration".

Compréhension sémantique : Lorsque Van Gogh a étudié les estampes japonaises, il n'a pas copié mécaniquement les motifs visuels - il a compris les principes esthétiques sous-jacents (utilisation de l'espace négatif, composition asymétrique, accent mis sur la nature) et les a réinterprétés à travers sa vision post-impressionniste européenne. Ses œuvres sont des synthèses culturelles conscientes.

Les modèles d'IA ne "comprennent" pas au sens humain du terme. Comme l'explique Melanie Mitchell, professeur à l'Institut Santa Fe, dans son ouvrage "Artificial Intelligence : A Guide for Thinking Humans" : "Les systèmes d'apprentissage profond excellent dans la reconnaissance des formes, mais n'ont pas de compréhension causale, de raisonnement abstrait ou de modèles mentaux du monde. La diffusion stable ne "comprend" pas ce qui distingue Ghibli - elle extrait des corrélations statistiques entre des millions de pixels étiquetés "style Ghibli".

Intentionnalité créative : les artistes humains font des choix créatifs intentionnels basés sur leur vision personnelle, le message qu'ils veulent communiquer, les émotions qu'ils veulent évoquer. Miyazaki incorpore des thèmes écologistes, pacifistes et féministes dans ses films - des choix moraux et artistiques conscients.

L'IA génère sur la base de probabilités statistiques : "étant donné l'invite X et l'ensemble d'entraînement Y, quelle configuration de pixels est la plus probable ?" Il n'y a pas d'intentionnalité, pas de message, pas de vision. Comme l'a écrit Ted Chiang dans le New Yorker : "ChatGPT est un jpeg flou du web" - une compression avec perte qui perd exactement les qualités qui font la valeur du contenu original.

Transformation ou recombinaison : Pablo Picasso a étudié les masques africains mais a créé le cubisme, un mouvement artistique entièrement nouveau qui a réinventé la représentation spatiale dans la peinture. La transformation est radicale et originale.

Les modèles d'IA générative fonctionnent par interpolation dans l'espace latent : ils recombinent les éléments de l'ensemble d'apprentissage en de nouvelles configurations, mais restent liés à la distribution statistique des données sur lesquelles ils ont été formés. Ils ne peuvent pas inventer une esthétique véritablement nouvelle qui violerait les régularités statistiques apprises. Comme l'ont démontré les recherches du MIT (Shumailov et al., 2023), les modèles formés de manière répétée sur des résultats d'IA antérieurs dégénèrent progressivement - un phénomène appelé "effondrement du modèle".

Le paradoxe de l'originalité de l'IA

Voici le paradoxe central : l'IA peut générer des résultats qui semblent originaux (aucun humain n'a jamais vu cette image spécifique de style Ghibli auparavant) mais qui sont statistiquement dérivés (ce sont des interpolations de modèles existants). Il s'agit d'une forme superficielle d'originalité sans innovation fondamentale.

Cela a de profondes implications. Comme l'a affirmé le philosophe John Searle dans son célèbre "argument de la chambre chinoise", simuler un processus cognitif n'est pas la même chose que le posséder. L'IA peut simuler la créativité sans être créative au sens humain du terme.

Solutions techniques et réglementaires émergentes

Face à la controverse, diverses solutions sont en cours d'élaboration :

Outils de protection pour les artistes :

  • Glaze (Université de Chicago) : logiciel qui applique des perturbations imperceptibles aux images, "trompant" les modèles d'IA qui tentent d'apprendre le style.
  • Nightshade (même équipe) : version offensive qui "empoisonne" les données d'entraînement, corrompant les modèles qui les utilisent sans autorisation.
  • Plus de 250 000 artistes ont adopté ces outils au cours de la première année.

Registres d'exclusion :

  • Have I Been Trained (Spawning AI) : base de données permettant aux artistes de vérifier si leurs œuvres figurent dans LAION et d'autres ensembles de données, avec un mécanisme d'exclusion.
  • Certains modèles plus récents respectent ces clauses de non-participation (Stability AI a annoncé une conformité partielle).

Cadre de rémunération :

  • Spawning AI Licence: un système de micro-licences pour rémunérer les artistes lorsque leurs œuvres sont utilisées dans le cadre d'une formation
  • Encore au stade expérimental, pas d'adoption à grande échelle

Réglementation gouvernementale :

Laloi européenne sur l'IA (entrée en vigueur en août 2024) exige que les fournisseurs de modèles d'IA génératifs publient des résumés détaillés des données d'entraînement protégées par le droit d'auteur utilisées. Il s'agit de la première tentative réglementaire d'imposer la transparence.

La loi ELVIS du Tennessee (mars 2024) protège spécifiquement les interprètes de voix et d'images contre l'utilisation non autorisée dans les États américains où l'IA est la première, avec une législation spécifique pour les fausses voix profondes et les fausses images.

Les propositions adressées au Congrès américain comprennent des demandes d'opt-in explicite pour les œuvres protégées par des droits d'auteur (au lieu de l'opt-out) et la création de registres publics d'ensembles de données de formation.

L'avenir de la créativité : Hybridité ou remplacement ?

Deux visions de l'avenir s'affrontent :

Vision optimiste (entreprises d'IA) : l'IA est un outil qui amplifie la créativité humaine, comme Photoshop ou les synthétiseurs musicaux. Les artistes utiliseront l'IA pour accélérer les flux de travail, explorer les variations et surmonter les blocages créatifs. Des formes d'art hybrides verront le jour, dans lesquelles les humains guideront la vision et l'IA exécutera les parties techniques.

Des exemples concrets existent déjà : le film "The Frost" (2023) a utilisé l'IA pour générer des arrière-plans et des textures, avec des artistes humains pour la direction artistique. Les musiciens utilisent Suno et Udio pour générer des pistes d'accompagnement sur lesquelles ils peuvent improviser. Les écrivains utilisent GPT comme un "canard en caoutchouc" pour discuter d'idées narratives.

Point de vue pessimiste (de nombreux créateurs) : L'IA va banaliser la créativité, éroder la valeur économique du travail créatif jusqu'à ce que seules les élites dotées de compétences exceptionnelles survivent. La "créativité moyenne" sera remplacée par des générateurs bon marché, détruisant la classe moyenne créative - tout comme l'automatisation industrielle a éliminé les artisans au 19e siècle.

Des preuves préliminaires soutiennent cette préoccupation : sur les plateformes de freelance telles que Fiverr, les demandes d'illustrateurs et de rédacteurs ont chuté de 21 % en 2023 (données Fiverr Q4 2023), tandis que les offres de "AI art generation" (génération d'œuvres d'art par l'IA) ont explosé. Greg Rutkowski a vu les commissions directes chuter de 40 % depuis que son style est devenu populaire sur Stable Diffusion.

La vérité se situe probablement quelque part entre les deux : certaines formes de travail créatif seront automatisées (illustrations génériques, marketing de base), tandis que la créativité hautement originale, conceptuelle et culturellement enracinée restera le domaine de l'homme.

Dernières réflexions : l'authenticité à l'ère de l'imitation parfaite

La distinction entre contenu humain et contenu d'IA deviendra de plus en plus difficile. Aujourd'hui déjà, en l'absence de filigrane ou de divulgation, il est souvent impossible de distinguer un texte GPT-4 d'un texte humain, ou des images Midjourney de photographies. Lorsque Sora (générateur vidéo OpenAI) sera rendu public, la distinction s'étendra à la vidéo.

Cela soulève de profondes questions sur l'authenticité. Si une image de style Ghibli générée par l'IA évoque les mêmes émotions que l'original, a-t-elle la même valeur ? Dans son ouvrage intitulé "L'œuvre d'art à l'ère de sa reproductibilité technique" (1935), le philosophe Walter Benjamin affirmait que la reproductibilité mécanique érodait l'"aura" de l'œuvre originale, c'est-à-dire son caractère unique et authentique dans l'espace et dans le temps.

L'IA générative pousse cet argument à l'extrême : elle ne reproduit pas des œuvres existantes, mais génère des variations infinies qui simulent l'original sans l'être. C'est le simulacre baudrillardien - la copie sans l'original.

Pourtant, l'acte créatif conscient a quelque chose d'irréductiblement humain : l'artiste qui choisit chaque coup de pinceau en sachant ce qu'il veut communiquer, l'écrivain qui rédige chaque phrase pour évoquer des émotions spécifiques, le compositeur qui construit la tension et la résolution avec intentionnalité. L'IA peut simuler le résultat, mais pas le processus - et c'est peut-être dans le processus que réside la véritable valeur de la créativité.

Comme l'a écrit le Studio Ghibli dans un communiqué (novembre 2023) : "L'âme de nos films ne réside pas dans le style visuel qui peut être copié, mais dans les décisions créatives que nous prenons image par image pour servir l'histoire que nous voulons raconter. Cela ne peut pas être automatisé".

La valeur de l'art, en fin de compte, découle de sa capacité à se connecter profondément à l'expérience humaine, à nous faire sentir compris, interpellés, transformés. La question de savoir si l'IA peut y parvenir reste ouverte. Mais tant que l'art sera fait par des humains pour des humains, en parlant de la condition humaine, il conservera quelque chose qu'aucun algorithme ne peut reproduire : l'authenticité de l'expérience vécue traduite sous une forme esthétique.

Sources :

  • Carlini, Nicholas et al - 'Extracting Training Data from Diffusion Models', arXiv:2301.13188 (2023)
  • Mitchell, Melanie - "L'intelligence artificielle : un guide pour les humains pensants" (2019)
  • Chiang, Ted - "ChatGPT Is a Blurry JPEG of the Web", The New Yorker (février 2023)
  • Shumailov, Ilia et al - 'The Curse of Recursion : Training on Generated Data Makes Models Forget', arXiv:2305.17493 (2023)
  • MIT Technology Review - "Cet artiste domine l'art généré par l'IA, et il n'en est pas content" (septembre 2022)
  • Loi européenne sur l'IA - Règlement (UE) 2024/1689
  • Benjamin, Walter - "L'œuvre d'art à l'époque de sa reproductibilité technique" (1935)
  • Procès relatifs aux documents publics : NYT contre OpenAI, Getty contre Stability AI
  • Rapport sur les bénéfices de Fiverr pour le quatrième trimestre 2023

Ressources pour la croissance des entreprises

9 novembre 2025

L'illusion du raisonnement : le débat qui secoue le monde de l'IA

Apple publie deux articles dévastateurs - "GSM-Symbolic" (octobre 2024) et "The Illusion of Thinking" (juin 2025) - qui démontrent l'échec du LLM sur de petites variations de problèmes classiques (Tour de Hanoï, traversée d'une rivière) : "les performances diminuent lorsque seules les valeurs numériques sont modifiées". Zéro succès sur le problème complexe de la Tour de Hanoï. Mais Alex Lawsen (Open Philanthropy) réplique avec "The Illusion of Thinking" qui démontre l'échec de la méthodologie : les échecs étaient dus aux limites de sortie des jetons et non à l'effondrement du raisonnement, les scripts automatiques classaient mal les sorties partielles correctes, certains puzzles étaient mathématiquement insolubles. En répétant les tests avec des fonctions récursives au lieu de lister les mouvements, Claude/Gemini/GPT ont résolu la Tour de Hanoi 15 fois. Gary Marcus adhère à la thèse d'Apple sur le "changement de distribution", mais le document sur la synchronisation avant la conférence mondiale sur le développement durable soulève des questions stratégiques. Implications pour les entreprises : dans quelle mesure faire confiance à l'IA pour les tâches critiques ? Solution : approches neurosymboliques réseaux neuronaux pour la reconnaissance des formes et le langage, systèmes symboliques pour la logique formelle. Exemple : L'IA comptable comprend "combien de frais de voyage ?" mais SQL/calculs/contrôles fiscaux = code déterministe.