Créativité humaine ou artificielle : où se situe la différence (et pourquoi le style Ghibli nous apprend quelque chose)
Le débat sur l'intelligence artificielle et le droit d'auteur s'est considérablement intensifié en 2024-2025. Il ne s'agit plus de discussions théoriques : le New York Times a poursuivi OpenAI pour violation du droit d'auteur (décembre 2023), Getty Images a poursuivi Stability AI et des milliers d'artistes ont intenté des recours collectifs. Les entreprises spécialisées dans l'IA répondent que leurs systèmes "apprennent" comme les humains, mais est-ce vraiment le cas ?
La créativité humaine s'est toujours développée grâce à des liens : Shakespeare s'est inspiré de chroniques historiques et de contes populaires, Van Gogh a étudié les estampes japonaises, les Beatles ont commencé par jouer du rock américain. Les artistes réinterprètent toujours des œuvres antérieures. L'intelligence artificielle, disent les entreprises technologiques, fait la même chose. Mais le cas du "style Ghibli" révèle à quel point ce récit est simpliste.
Tapez "style Ghibli" dans Midjourney ou DALL-E et vous obtiendrez des images qui ressemblent étrangement aux chefs-d'œuvre de Hayao Miyazaki : couleurs pastel, nuages cotonneux, paysages oniriques, personnages aux grands yeux. C'est techniquement impressionnant. C'est aussi profondément problématique.
Le Studio Ghibli a mis des décennies à développer cette esthétique distinctive : choix précis de la palette de couleurs, techniques d'animation traditionnelles et philosophie artistique enracinée dans la culture japonaise et la vision personnelle de Miyazaki. Lorsqu'un modèle d'IA reproduit ce "style" en quelques secondes, est-ce qu'il "apprend" vraiment comme Miyazaki a appris des animations Disney et des mangas japonais ? Ou recombine-t-il simplement des motifs visuels extraits de milliers d'images de Ghibli sans autorisation ?
La différence n'est pas philosophique, elle est juridique et économique. Selon une analyse de Stanford publiée dans arXiv (Carlini et al., 2023), les modèles de diffusion tels que Stable Diffusion peuvent régénérer des images presque identiques à partir de l'ensemble d'apprentissage dans environ 3 % des cas lorsqu'ils sont sollicités par des invites spécifiques. Il ne s'agit pas d'une "inspiration", mais d'un stockage et d'une reproduction.
L'artiste numérique polonais Greg Rutkowski a découvert que son nom apparaissait dans 1,2 million de messages sur Stable Diffusion, devenant ainsi, sans le vouloir, l'un des "styles" les plus demandés, sans avoir jamais donné son accord ni reçu de compensation. Comme il l'a déclaré au MIT Technology Review, "je ne me sens pas flatté. J'ai l'impression qu'on m'a volé quelque chose que j'ai construit pendant des années.
L'entraînement à l'IA a atteint des dimensions sans précédent. LAION-5B, l'un des ensembles de données les plus utilisés pour les modèles d'images, contient 5,85 milliards de paires image-texte recueillies sur l'internet, y compris des œuvres protégées par des droits d'auteur. GPT-4 a été formé sur des portions massives de l'internet, y compris des articles payants, des livres et des codes de logiciels propriétaires.
Actions en justice importantes en cours :
Les entreprises spécialisées dans l'IA défendent cette pratique en invoquant le "fair use" (usage loyal) prévu par la législation américaine : elles font valoir que la formation est "transformative" et ne remplace pas le marché d'origine. Mais plusieurs tribunaux remettent en cause cette interprétation.
La juge Katherine Forrest, dans l'affaire Getty v. Stability AI, a rejeté la requête en irrecevabilité en janvier 2024, permettant à l'affaire de se poursuivre : "La question de savoir si l'entraînement des modèles d'IA constitue un usage loyal est complexe et nécessite un examen approfondi des faits. Traduction : les entreprises spécialisées dans l'IA ne peuvent pas simplement invoquer le fair use et s'en contenter.
Face à la pression juridique, les entreprises d'IA ont commencé à négocier des licences. OpenAI a conclu des accords avec :
Google a signé des accords similaires avec Reddit, Stack Overflow et divers éditeurs. Anthropic a négocié avec des éditeurs pour l'utilisation de livres.
Mais ces accords ne concernent que les grands éditeurs qui ont un pouvoir de négociation. Des millions de créateurs individuels - artistes, photographes, écrivains indépendants - ne sont toujours pas indemnisés pour les œuvres utilisées dans des formations déjà achevées.
L'idée selon laquelle "l'IA apprend comme les humains" est techniquement trompeuse. Examinons les différences fondamentales :
Échelle et vitesse : un artiste humain étudie des centaines ou des milliers d'œuvres au cours de sa vie. Le GPT-4 a été formé sur des trillions de mots. Stable Diffusion sur des milliards d'images. L'échelle est incomparable et dépasse toute définition raisonnable de l'"inspiration".
Compréhension sémantique : Lorsque Van Gogh a étudié les estampes japonaises, il n'a pas copié mécaniquement les motifs visuels - il a compris les principes esthétiques sous-jacents (utilisation de l'espace négatif, composition asymétrique, accent mis sur la nature) et les a réinterprétés à travers sa vision post-impressionniste européenne. Ses œuvres sont des synthèses culturelles conscientes.
Les modèles d'IA ne "comprennent" pas au sens humain du terme. Comme l'explique Melanie Mitchell, professeur à l'Institut Santa Fe, dans son ouvrage "Artificial Intelligence : A Guide for Thinking Humans" : "Les systèmes d'apprentissage profond excellent dans la reconnaissance des formes, mais n'ont pas de compréhension causale, de raisonnement abstrait ou de modèles mentaux du monde. La diffusion stable ne "comprend" pas ce qui distingue Ghibli - elle extrait des corrélations statistiques entre des millions de pixels étiquetés "style Ghibli".
Intentionnalité créative : les artistes humains font des choix créatifs intentionnels basés sur leur vision personnelle, le message qu'ils veulent communiquer, les émotions qu'ils veulent évoquer. Miyazaki incorpore des thèmes écologistes, pacifistes et féministes dans ses films - des choix moraux et artistiques conscients.
L'IA génère sur la base de probabilités statistiques : "étant donné l'invite X et l'ensemble d'entraînement Y, quelle configuration de pixels est la plus probable ?" Il n'y a pas d'intentionnalité, pas de message, pas de vision. Comme l'a écrit Ted Chiang dans le New Yorker : "ChatGPT est un jpeg flou du web" - une compression avec perte qui perd exactement les qualités qui font la valeur du contenu original.
Transformation ou recombinaison : Pablo Picasso a étudié les masques africains mais a créé le cubisme, un mouvement artistique entièrement nouveau qui a réinventé la représentation spatiale dans la peinture. La transformation est radicale et originale.
Les modèles d'IA générative fonctionnent par interpolation dans l'espace latent : ils recombinent les éléments de l'ensemble d'apprentissage en de nouvelles configurations, mais restent liés à la distribution statistique des données sur lesquelles ils ont été formés. Ils ne peuvent pas inventer une esthétique véritablement nouvelle qui violerait les régularités statistiques apprises. Comme l'ont démontré les recherches du MIT (Shumailov et al., 2023), les modèles formés de manière répétée sur des résultats d'IA antérieurs dégénèrent progressivement - un phénomène appelé "effondrement du modèle".
Voici le paradoxe central : l'IA peut générer des résultats qui semblent originaux (aucun humain n'a jamais vu cette image spécifique de style Ghibli auparavant) mais qui sont statistiquement dérivés (ce sont des interpolations de modèles existants). Il s'agit d'une forme superficielle d'originalité sans innovation fondamentale.
Cela a de profondes implications. Comme l'a affirmé le philosophe John Searle dans son célèbre "argument de la chambre chinoise", simuler un processus cognitif n'est pas la même chose que le posséder. L'IA peut simuler la créativité sans être créative au sens humain du terme.
Face à la controverse, diverses solutions sont en cours d'élaboration :
Outils de protection pour les artistes :
Registres d'exclusion :
Cadre de rémunération :
Réglementation gouvernementale :
Laloi européenne sur l'IA (entrée en vigueur en août 2024) exige que les fournisseurs de modèles d'IA génératifs publient des résumés détaillés des données d'entraînement protégées par le droit d'auteur utilisées. Il s'agit de la première tentative réglementaire d'imposer la transparence.
La loi ELVIS du Tennessee (mars 2024) protège spécifiquement les interprètes de voix et d'images contre l'utilisation non autorisée dans les États américains où l'IA est la première, avec une législation spécifique pour les fausses voix profondes et les fausses images.
Les propositions adressées au Congrès américain comprennent des demandes d'opt-in explicite pour les œuvres protégées par des droits d'auteur (au lieu de l'opt-out) et la création de registres publics d'ensembles de données de formation.
Deux visions de l'avenir s'affrontent :
Vision optimiste (entreprises d'IA) : l'IA est un outil qui amplifie la créativité humaine, comme Photoshop ou les synthétiseurs musicaux. Les artistes utiliseront l'IA pour accélérer les flux de travail, explorer les variations et surmonter les blocages créatifs. Des formes d'art hybrides verront le jour, dans lesquelles les humains guideront la vision et l'IA exécutera les parties techniques.
Des exemples concrets existent déjà : le film "The Frost" (2023) a utilisé l'IA pour générer des arrière-plans et des textures, avec des artistes humains pour la direction artistique. Les musiciens utilisent Suno et Udio pour générer des pistes d'accompagnement sur lesquelles ils peuvent improviser. Les écrivains utilisent GPT comme un "canard en caoutchouc" pour discuter d'idées narratives.
Point de vue pessimiste (de nombreux créateurs) : L'IA va banaliser la créativité, éroder la valeur économique du travail créatif jusqu'à ce que seules les élites dotées de compétences exceptionnelles survivent. La "créativité moyenne" sera remplacée par des générateurs bon marché, détruisant la classe moyenne créative - tout comme l'automatisation industrielle a éliminé les artisans au 19e siècle.
Des preuves préliminaires soutiennent cette préoccupation : sur les plateformes de freelance telles que Fiverr, les demandes d'illustrateurs et de rédacteurs ont chuté de 21 % en 2023 (données Fiverr Q4 2023), tandis que les offres de "AI art generation" (génération d'œuvres d'art par l'IA) ont explosé. Greg Rutkowski a vu les commissions directes chuter de 40 % depuis que son style est devenu populaire sur Stable Diffusion.
La vérité se situe probablement quelque part entre les deux : certaines formes de travail créatif seront automatisées (illustrations génériques, marketing de base), tandis que la créativité hautement originale, conceptuelle et culturellement enracinée restera le domaine de l'homme.
La distinction entre contenu humain et contenu d'IA deviendra de plus en plus difficile. Aujourd'hui déjà, en l'absence de filigrane ou de divulgation, il est souvent impossible de distinguer un texte GPT-4 d'un texte humain, ou des images Midjourney de photographies. Lorsque Sora (générateur vidéo OpenAI) sera rendu public, la distinction s'étendra à la vidéo.
Cela soulève de profondes questions sur l'authenticité. Si une image de style Ghibli générée par l'IA évoque les mêmes émotions que l'original, a-t-elle la même valeur ? Dans son ouvrage intitulé "L'œuvre d'art à l'ère de sa reproductibilité technique" (1935), le philosophe Walter Benjamin affirmait que la reproductibilité mécanique érodait l'"aura" de l'œuvre originale, c'est-à-dire son caractère unique et authentique dans l'espace et dans le temps.
L'IA générative pousse cet argument à l'extrême : elle ne reproduit pas des œuvres existantes, mais génère des variations infinies qui simulent l'original sans l'être. C'est le simulacre baudrillardien - la copie sans l'original.
Pourtant, l'acte créatif conscient a quelque chose d'irréductiblement humain : l'artiste qui choisit chaque coup de pinceau en sachant ce qu'il veut communiquer, l'écrivain qui rédige chaque phrase pour évoquer des émotions spécifiques, le compositeur qui construit la tension et la résolution avec intentionnalité. L'IA peut simuler le résultat, mais pas le processus - et c'est peut-être dans le processus que réside la véritable valeur de la créativité.
Comme l'a écrit le Studio Ghibli dans un communiqué (novembre 2023) : "L'âme de nos films ne réside pas dans le style visuel qui peut être copié, mais dans les décisions créatives que nous prenons image par image pour servir l'histoire que nous voulons raconter. Cela ne peut pas être automatisé".
La valeur de l'art, en fin de compte, découle de sa capacité à se connecter profondément à l'expérience humaine, à nous faire sentir compris, interpellés, transformés. La question de savoir si l'IA peut y parvenir reste ouverte. Mais tant que l'art sera fait par des humains pour des humains, en parlant de la condition humaine, il conservera quelque chose qu'aucun algorithme ne peut reproduire : l'authenticité de l'expérience vécue traduite sous une forme esthétique.
Sources :