L'intelligence artificielle est en train de réécrire les règles de l'édition mondiale à une vitesse sans précédent : alors qu'Axel Springer licencie toute la rédaction italienne d'Upday pour la remplacer par ChatGPT, des journaux comme Il Foglio enregistrent une hausse de 60 % de leurs ventes grâce à un supplément entièrement rédigé par l'IA. Mais en coulisses, une réalité plus complexe se dessine : de nombreuses « solutions IA révolutionnaires » cachent des réalités opérationnelles qui oscillent entre innovation authentique et manipulation systématique de l'écosystème informationnel.
Ce phénomène, que les chercheurs ont ironiquement surnommé « fauxtomation » (ou pseudo-automatisation), révèle que l'industrie technologique utilise souvent une automatisation de mauvaise qualité présentée comme une intelligence artificielle avancée.
La recherche menée par NewsGuard met en lumière un phénomène explosif : plus de 1 200 sites de pseudo-information automatisée répartis en 16 langues. Un écosystème qui surfe sur un marché destiné à quadrupler en six ans, passant de 26 milliards de dollars aujourd'hui à près de 100 milliards en 2030.
La différence entre ceux qui prospèrent et ceux qui échouent ? La capacité à transformer l'IA d'une menace existentielle en avantage concurrentiel grâce à une nouvelle compétence clé : savoir quoi demander à la machine - lorsque la machine est vraiment une machine.
Les années 2024-2025 ont marqué un tournant décisif dans le secteur de l'édition. D'une part, des vagues de licenciements ont frappé des rédactions historiques : Business Insider a supprimé 21 % de ses effectifs, The Messenger a fermé ses portes, laissant 300 journalistes sans emploi, tandis que CNN et Los Angeles Times ont supprimé des centaines de postes. Les postes les plus touchés sont ceux de rédacteur, d'éditeur junior et de traducteur, toutes des fonctions facilement automatisables.
D'autre part, un nouvel écosystème d'opportunités émerge. Le Washington Post a créé le premier poste de « Senior Editor for AI Strategy and Innovation » (rédacteur en chef chargé de la stratégie et de l'innovation en matière d'IA), tandis que Newsweek a lancé une équipe dédiée à l'IA pour les actualités de dernière minute, qui a contribué à atteindre 130 millions de sessions mensuelles. Le marché du travail enregistre une augmentation de 124 % des offres d'emploi dans le domaine de l'IA dans le secteur des médias, avec des salaires pouvant atteindre 335 000 dollars par an pour les ingénieurs seniors en prompting.
La clé de cette transformation réside dans l'approche stratégique. Thomson Reuters investit plus de 100 millions de dollars par an dans l'IA, en utilisant différents modèles pour des tâches spécifiques : OpenAI pour la génération de contenu, Google Gemini pour l'analyse de documents juridiques complexes, Anthropic Claude pour les flux de travail hautement sensibles. Cette approche multi-fournisseurs a permis à l'entreprise d'optimiser ses coûts et ses performances, tout en conservant le contrôle sur la qualité éditoriale.
« Savoir quoi demander à la machine » n'est pas un slogan, mais une compétence professionnelle émergente qui redéfinit le métier de journaliste. Une enquête menée auprès de 134 professionnels de l'information aux États-Unis, au Royaume-Uni et en Allemagne révèle que la vérification des contenus générés par l'IA « prend parfois plus de temps que la rédaction manuelle ». Cette donnée apparemment paradoxale cache une vérité fondamentale : l'IA ne remplace pas le journaliste, mais nécessite de nouvelles formes de supervision éditoriale.
Les compétences traditionnelles ne disparaissent pas, mais évoluent vers des formes plus sophistiquées. Les relations avec les sources, le jugement éditorial et la contextualisation restent irremplaçables. Comme le souligne un responsable de rédaction britannique : « Je ne veux pas être BuzzFeed ou CNET, qui publient des contenus sans intérêt. Nous devons faire les choses correctement. »
Formuler des questions efficaces à l'intelligence artificielle va au-delà de la simple demande d'informations. Cela nécessite de comprendre les biais algorithmiques, d'être capable de structurer des requêtes complexes et de savoir itérer pour obtenir des résultats toujours plus précis. Une conversation productive avec l'IA doit : contextualiser en fournissant les informations nécessaires, préciser le format souhaité, définir des paramètres éthiques en exigeant la transparence des sources et adapter le ton en fonction du public cible.
Paradoxalement, l'ère de l'IA a rendu la vérification des faits encore plus cruciale. Les journalistes développent de nouvelles méthodologies pour la vérification assistée des faits, où l'intelligence artificielle devient à la fois l'objet et l'outil de vérification. Le défi ne consiste plus seulement à distinguer le vrai du faux, mais aussi à évaluer la qualité des synthèses automatiques, à identifier les omissions significatives et à reconnaître quand l'IA introduit des biais subtils dans le récit.
L'utilisation responsable de l'intelligence artificielle implique une réflexion éthique constante. La transparence envers le public sur l'utilisation de l'IA devient un pilier de la crédibilité éditoriale. Dans ce contexte, une nouvelle figure hybride émerge : le journaliste-orchestrateur, capable de diriger une symphonie de sources humaines et numériques pour produire des informations de qualité supérieure.
L'histoire d'AdVon Commerce illustre parfaitement l'évolution des technologies, qui sont passées de pratiques controversées à des solutions commerciales légitimes. Au cœur des scandales de Sports Illustrated et USA Today, AdVon a transformé le « journalisme automatisé » en une entreprise millionnaire. Les chiffres étaient impressionnants : 90 000 articles publiés via son système pour des centaines de journaux, utilisant des journalistes totalement fictifs avec des photos de profil générées par l'IA.
Une vidéo de formation interne obtenue par Futurism révélait la réalité opérationnelle : des employés qui « généraient un article rédigé par l'IA et le peaufinaient ». 12 façons dont les journalistes utilisent les outils d'IA dans la salle de rédaction - Twipe. La stratégie était simple mais efficace : utiliser dans un premier temps des prestataires externes pour rédiger des critiques de produits, puis utiliser ce matériel pour former des modèles linguistiques, en évoluant vers l'automatisation. C'est l'exemple même de la transition du travail humain vers l'« IA réelle », les travailleurs humains formant les machines dans un processus de remplacement progressif.
AdVon fait désormais partie de Flywheel Digital (racheté par Omnicom) et se présente comme un fournisseur de « solutions SEO et de contenu centrées sur l'utilisateur et alimentées par l'IA » pour les entreprises du Fortune 500. Le passage du controversé « content farming » pour les journaux aux outils d'entreprise pour le commerce électronique représente une évolution typique des startups technologiques : même technologie, marchés différents, éthique différente.
Le cas AdVon montre également que les mêmes technologies peuvent servir à la fois des marchés légitimes (commerce électronique) et des pratiques problématiques (journalisme mensonger). L'évolution du modèle, qui est passé de la ferme de contenu au logiciel d'entreprise, montre comment l'innovation technologique peut trouver des applications plus éthiques au fil du temps.
Le cas le plus emblématique de la complexité des grandes entreprises technologiques ressort de la chronologie : le 5 mars 2024, Google annonce des mesures contre « l'abus de contenu à grande échelle » ; le 1er avril 2024, Google Cloud annonce un partenariat avec AdVon pour lancer AdVonAI. Lorsque Futurism a demandé des éclaircissements, Google a répondu par un silence total.
L'explication la plus probable réside dans la structure organisationnelle : Google Cloud fonctionne comme une division distincte avec ses propres objectifs commerciaux, et AdVonAI est positionné comme un outil B2B destiné aux détaillants tels que Target et Walmart, et non à la production de contenu journalistique. Comme le fait remarquer Karl Bode de Techdirt : « Les dirigeants incompétents continuent de traiter l'IA non pas comme un moyen d'améliorer le journalisme, mais comme un raccourci pour créer une machine automatisée d'engagement publicitaire. »
CNET a fourni l'un des premiers exemples à grande échelle de la manière dont il ne faut PAS mettre en œuvre l'IA dans le journalisme, devenant ainsi un cas d'étude parfait sur les risques de la « fauxtomation ». Le célèbre site technologique a utilisé un «moteur d'IA interne» pour rédiger 77 articles publiés depuis novembre 2022, soit environ 1 % du contenu total publié au cours de la même période.
CNET a dû corriger des erreurs dans 41 des 77 articles générés par l'IA, soit plus de la moitié du contenu automatisé. Un article sur les intérêts composés affirmait que des dépôts de 10 000 dollars avec un intérêt annuel de 3 % rapporteraient 10 300 dollars au lieu de 300 dollars, soit une erreur de 3 333 % qui aurait ruiné financièrement quiconque aurait suivi ce conseil.
Des enquêtes ultérieures ont également révélé des preuves de plagiat structurel avec des articles précédemment publiés ailleurs. Jeff Schatten, professeur à l'université Washington and Lee, après avoir examiné de nombreux exemples, a qualifié le comportement du bot de « clairement » plagiaire. « Si un étudiant remettait un essai présentant un nombre comparable de similitudes avec des documents existants sans en citer la source, il serait renvoyé devant le conseil d'éthique étudiant et, compte tenu de la nature répétée de son comportement, il serait presque certainement expulsé de l'université. »
L'affaire CNET révèle comment la logique des fermes de contenu s'immisce même dans les journaux historiques. Comme le rapporte The Verge, la stratégie principale de Red Ventures (propriétaire de CNET) consistait à publier des quantités massives de contenu, soigneusement conçu pour se positionner en tête des résultats Google et truffé de liens affiliés lucratifs. CNET s'était transformé en une « machine SEO pour gagner de l'argent, optimisée par l'IA ».
La leçon fondamentale : l'IA a une «tendance notoire à produire des contenus biaisés, nuisibles et factuellement incorrects », ce qui nécessite une supervision humaine experte, et pas seulement une édition superficielle.
Entre-temps, une génération encore plus sophistiquée de fermes de contenu entièrement automatisées fait son apparition. NewsGuard a identifié des sites qui « fonctionnent avec peu ou pas de contrôle humain et publient des articles rédigés en grande partie ou entièrement par des robots », avec des noms génériques tels que iBusiness Day, Ireland Top News et Daily Time Update.
Les chiffres sont alarmants : depuis avril 2023, date à laquelle NewsGuard a identifié 49 sites, leur nombre a explosé pour atteindre plus de 1 000 en août 2024.
Compte tenu du déclin simultané des véritables journaux locaux dans le monde, les chances qu'un site web d'information prétendant couvrir l'actualité locale soit faux sont supérieures à 50 %.
OkayNWA (Arkansas) : Le premier « journal local » entièrement automatisé avec des « reporters IA » aux noms surréalistes tels que « Benjamin Business » et « Sammy Streets ». Le site scrape le web à la recherche d'événements locaux et les republie sous de fausses identités IA, représentant l'évolution finale du modèle AdVon.
Celebritydeaths.com: A faussement affirmé que le président Biden était décédé et que la vice-présidente Harris avait pris ses fonctions Les analystes mettent en garde contre la prolifération des sites d'information générés par l'IA - un exemple de la manière dont l'automatisation sans contrôle peut créer une désinformation dangereuse.
Hong Kong Apple Daily: Le domaine de l'ancien journal démocratique a été racheté par un homme d'affaires serbe et rempli de contenus générés par l'IA Les analystes mettent en garde contre la prolifération des sites d'information générés par l'IA après la fermeture forcée du journal en 2021 - un cas particulièrement cynique d'appropriation numérique.
Les sites générés par l'IA n'ont généralement pas de paywall et ne supportent pas les coûts liés à l'embauche de vrais journalistes, ils peuvent donc attirer plus facilement des revenus publicitaires programmatiques. Attention : les sites d'« actualités » IA sont en plein essor - NewsGuard. Cela crée un cercle vicieux dévastateur : alors que ces sites siphonnent les revenus publicitaires, les organisations journalistiques locales ont encore plus de mal à se maintenir, ce qui entraîne de nouvelles réductions de personnel et de ressources.
NewsGuard a découvert que Google est à l'origine de 90 % des publicités sur ces sites Les analystes mettent en garde contre la prolifération des sites d'information générés par l'IA. Lorsque Voice of America a demandé des éclaircissements, Google a déclaré ne pas pouvoir vérifier pourquoi NewsGuard ne partageait pas sa liste de sites (ce qu'il ne ferait évidemment pas, car il s'agit de son principal atout commercial).
Les données économiques témoignent d'une profonde perturbation :
L'impact sur les salaires est tout aussi spectaculaire. Les postes qui requièrent des compétences en IA bénéficient d'une prime salariale pouvant atteindre 25 % aux États-Unis. Un responsable de contenu IA chez Amazon peut gagner entre 62 000 et 95 000 dollars, tandis que les ingénieurs seniors spécialisés dans les invites atteignent des salaires de 335 000 dollars. En revanche, 58 % des journalistes se forment eux-mêmes à l'IA sans aucun soutien de leur entreprise.
Dans ce contexte de tromperies systémiques et d'automatisation cachée, l'expérience menée par Il Foglio brille comme un exemple de transparence radicale. Le quotidien a publié pendant un mois entier un supplément entièrement rédigé par l'IA, obtenant une augmentation de 60 % des ventes dès le premier jour et une couverture médiatique internationale.
Claudio Cerasa, directeur du quotidien, reconnaît ouvertement les limites : « C'est l'un des cas où l'IA fonctionne mal » en termes d'originalité, mais il souligne la leçon fondamentale : « L'essentiel est de comprendre ce que l'on peut faire de plus, et non de moins. »
Le succès de Il Foglio prend une dimension encore plus significative lorsqu'on le compare à la réalité des fermes de contenu. Alors que Cerasa mène une expérience transparente et éthique, en déclarant chaque aspect de l'utilisation de l'IA à ses lecteurs, des milliers de sites à travers le monde cachent leur nature automatisée derrière de fausses identités journalistiques.
News Corp Australia : le modèle industriel transparent
News Corp Australia produit déjà 3 000 articles IA par semaine dans le cadre du projet Data Local, mais avec une différence cruciale : une supervision éditoriale structurée et une divulgation complète. Cette approche industrielle mais transparente démontre que l'automatisation peut être mise en œuvre à grande échelle tout en respectant les normes éthiques.
Le cas de EXPRESS.de en Allemagne illustre comment l'IA peut devenir un véritable partenaire des journalistes. Leur système « Klara » contribue désormais à 11 % des articles et représente, pendant les pics saisonniers, 8 à 12 % du trafic total, principalement grâce à son efficacité dans la génération de titres.
L'impact est mesurable : ce partenariat entre l'humain et l'IA a entraîné une augmentation significative de 50 à 80 % des taux de clics lorsque l'IA sélectionne des articles en fonction des intérêts des utilisateurs. Les employés jouent le rôle de superviseurs, révisant chaque article, vérifiant les sources et garantissant l'intégrité journalistique.
Fabio Napoli, directeur commercial numérique chez RCS, souligne que l'entreprise prévoit d'élargir son offre basée sur l'IA en développant de nouvelles applications thématiques et en améliorant les plateformes existantes telles que L'Economia. L'objectif est d'utiliser l'IA et l'analyse des données pour fournir un contenu plus personnalisé, afin de garantir que les lecteurs s'engagent davantage et passent plus de temps sur les plateformes RCS.
Laloi européenne sur l'IA, entrée en vigueur en août 2024, représente la première tentative systématique de réglementation de l'IA à l'échelle continentale. La loi impose l'obligation d'étiqueter les contenus générés par l'IA, jetant ainsi les bases juridiques permettant de distinguer les contenus humains des contenus automatisés.
La Charte de Paris sur l'IA et le journalisme, présidée par la lauréate du prix Nobel Maria Ressa, a défini 10 principes fondamentaux pour une IA éthique dans le journalisme. Le document souligne que « l'innovation technologique ne conduit pas intrinsèquement au progrès : elle doit être guidée par l'éthique ».
Les principes clés comprennent : la transparence dans l'utilisation de l'IA, la supervision humaine obligatoire pour les contenus sensibles, la protection de la diversité des sources et une responsabilité éditoriale claire. Des organisations telles que la FIJ et la FEJ se battent pour garantir une rémunération équitable pour les contenus utilisés dans la formation de l'IA et la transparence algorithmique.
Parmi les cas qui divisent la communauté éditoriale, on trouve Spines, une start-up israélienne qui propose des services d'édition automatisés réduisant les délais de 6 à 18 mois à trois semaines, avec des prix allant de 1 200 à 5 000 dollars, permettant aux auteurs de conserver 100 % de leurs droits.
La plateforme utilise l'IA pour l'édition, la relecture, la conception des couvertures et la mise en page, tout en assignant un chef de projet humain à chaque livre. Les critiques se concentrent sur la qualité (« L'intelligence artificielle est notoirement peu douée pour l'écriture »), tandis que les partisans soulignent la démocratisation de l'accès à des services auparavant coûteux.
La start-up a attiré 22,5 millions de dollars auprès d'investisseurs réputés et son PDG, Yehuda Niv, affiche un solide parcours. Le modèle représente l'industrialisation de services déjà existants, pas nécessairement « révolutionnaire » mais potentiellement important pour l'accessibilité de l'édition.
Les scénarios pour 2025-2030 esquissés par le projet « AI in Journalism Futures » oscillent entre transformation radicale et continuité. Le scénario « Machines in the Middle » envisage l'IA comme étant essentiellement la rédaction, traitant et distribuant la plupart des informations journalistiques.
Les experts prévoient une « réalité post-lien » où les utilisateurs ne visiteront plus les sites des éditeurs, mais accéderont aux informations via des agents IA qui résument les contenus. Ce scénario conduirait à une centralisation accrue du contrôle de l'information entre les mains des grandes entreprises technologiques.
Les rédactions qui réussissent adoptent des modèles « à deux vitesses » qui permettent l'expérimentation tout en conservant les flux de travail traditionnels. Des structures « fédéralisées » émergent, avec des équipes autonomes soutenues par des infrastructures IA centralisées. La clé réside dans l'équilibre entre l'efficacité technologique et les valeurs journalistiques : exactitude, équité, responsabilité et service public.
Cependant, une vérité réconfortante ressort des commentaires de la communauté éditoriale : les marchés disposent d'anticorps naturels contre les escroqueries. Comme le fait remarquer un vétéran du secteur : « Il y a toujours des escroqueries, mais je n'en ai jamais vu une qui ait eu un impact durable. »
La raison est simple mais puissante : les algorithmes de découverte (qui sont, ironiquement, de véritables IA) récompensent l'engagement et la satisfaction du lecteur. Les fermes de contenu peuvent inonder le marché, mais la qualité finit toujours par s'imposer. Les lecteurs ne lisent pas au-delà de la première page d'un contenu de mauvaise qualité, qu'il soit produit par des humains ou par une IA.
L'IA n'est pas l'avenir du journalisme, c'est son présent turbulent et contradictoire. La transformation en cours révèle une bifurcation encore plus profonde que ce qui avait été initialement imaginé : il ne s'agit pas seulement du remplacement des journalistes par des machines, mais d'une bataille entre l'automatisation éthique et la « fauxtomation » prédatrice.
Le contraste entre Il Foglio et les milliers de fermes de contenu automatisées est emblématique. D'un côté, une expérience transparente qui déclare ouvertement l'utilisation de l'IA, investit dans la supervision humaine et utilise la technologie pour interroger l'avenir du métier. De l'autre, un système industriel de tromperie qui pollue l'écosystème informationnel avec des contenus de mauvaise qualité déguisés en journalisme authentique.
Pour réussir à l'ère de l'IA-éditeur, cinq éléments fondamentaux sont nécessaires :
Les rédactions qui prospèrent sont celles qui, comme Il Foglio, utilisent l'IA pour libérer les journalistes des tâches répétitives et les incitent à se concentrer sur ce que les machines ne peuvent pas faire : établir des relations de confiance, contextualiser la complexité, raconter des histoires qui touchent l'âme humaine.
Le paradoxe est dévastateur mais aussi libérateur : à l'ère de l'automatisation maximale, l'honnêteté devient révolutionnaire. Savoir quoi demander à la machine n'est pas seulement une compétence technique, c'est un acte de résistance contre un écosystème qui récompense la tromperie systématique.
Mais comme le prouvent la sagesse de la communauté éditoriale et la résilience des marchés, les lecteurs savent faire la différence. Les rédactions italiennes sont confrontées à un choix qui va au-delà de la technologie : elles peuvent se joindre à la course vers le bas des fermes de contenu automatisées, ou elles peuvent suivre l'exemple de Il Foglio et utiliser la transparence comme arme concurrentielle.
À l'ère de la « fauxtomation », le journalisme authentique devient la dernière forme d'automatisation qu'aucune machine ne pourra jamais reproduire : l'automatisation de la confiance. Et la confiance, comme tout bon journaliste l'a toujours su, se gagne histoire après histoire, lecteur après lecteur, vérité après vérité.
La différence entre survie et prospérité ne réside pas dans l'adoption de l'IA, mais dans la capacité à rester intègre alors que tout le monde prétend que son automatisation est plus sophistiquée qu'elle ne l'est réellement. L'avenir appartient à ceux qui savent transformer la technologie en un outil de vérité, et non de tromperie.
Sources :
Recherche et données de marché :
Études de cas et scandales :
Fermes de contenu et automatisation :
Partenariats et initiatives mondiaux :