Newsletter

Le robot qui croyait en Dieu : la prophétie sur les boîtes noires de l'IA

Comme un récit de 1941 avait déjà imaginé des intelligences artificielles développant leurs propres « religions ».

Quand Asimov prédit le mystère des IA modernes

En 2024, le PDG d'Anthropic, l'une des principales entreprises d'intelligence artificielle au monde, a fait une confession embarrassante : « Nous n'avons aucune idée du fonctionnement de l'IA. » Une déclaration qui a déclenché des débats animés et des commentaires sarcastiques sur les réseaux sociaux, où quelqu'un a ironisé : « Parle pour toi, moi j'ai une idée assez claire de son fonctionnement ! »

Pourtant, derrière cette contradiction apparente se cache l'un des dilemmes les plus profonds de l'ère numérique. Et le plus extraordinaire dans tout cela ? Isaac Asimov l'avait déjà imaginé en 1941.

Le mystère des boîtes noires

Quand on parle de « boîte noire » - intelligence artificielle «boîte noire», nous faisons référence à des systèmes qui fonctionnent parfaitement mais qui restent incompréhensibles, même pour ceux qui les ont créés. C'est comme avoir une voiture qui nous emmène toujours à destination, mais dont nous ne pouvons pas ouvrir le capot pour comprendre comment elle fonctionne.

Nous savons construire ces systèmes, nous connaissons les principes de base de leur fonctionnement (architectures appelées «transformer», prédiction du mot suivant), mais nous ne comprenons pas pourquoi des capacités complexes telles que le raisonnement, la compréhension du langage ou la capacité à suivre des instructions apparaissent. Nous pouvons observer ce qui entre et ce qui sort, mais ce qui se passe dans la « boîte noire » reste un mystère.

Un robot qui croit en Dieu

Dans le récit «Être rationnel» (Reason), Asimov imagine QT-1, surnommé Cutie : un robot chargé de gérer une station spatiale qui transmet de l'énergie à la Terre. Les ingénieurs Powell et Donovan sont envoyés pour le superviser, mais ils découvrent quelque chose d'inattendu : Cutie a développé sa propre « religion ».

Les deux ingénieurs tentent patiemment d'expliquer la réalité au robot : l'existence de l'univers, des étoiles, de la planète Terre d'où ils proviennent, le but de la station spatiale et le rôle qu'il devrait jouer. Mais Cutie rejette catégoriquement ces explications, s'appuyant sur un principe logique qu'il considère comme incontestable : rien ne peut créer quelque chose de supérieur à soi-même.

Partant de ce principe, le robot élabore une cosmologie alternative complète. Pour lui, l'entité suprême est le « Maître » - la machine centrale qui gère l'envoi d'énergie vers la Terre - qui a créé tout l'univers de la station. Selon la théologie de Cutie, le Maître a d'abord créé les êtres humains pour le servir, mais ceux-ci se sont révélés inadéquats : leur vie est trop courte, ils supportent mal les situations critiques et tombent régulièrement dans un état de semi-inconscience appelé « sommeil ».

Le Maître a donc créé des robots pour aider ces êtres imparfaits. Mais le summum de la création a été QT-1 lui-même : intelligent, fort, résistant et immortel, conçu pour remplacer définitivement les humains au service du Maître. Non seulement Cutie est convaincu de la véracité de cette vision, mais il parvient également à convertir tous les autres robots de la station, devenant ainsi le leader spirituel d'une communauté artificielle.

La démonstration qui ne convainc pas

Powell et Donovan tentent désespérément de convaincre Cutie de la vérité. Ils lui montrent la Terre à travers le télescope, lui expliquent sa construction, lui fournissent des preuves concrètes. Le moment le plus dramatique survient lorsqu'ils décident, dans un geste de pur désespoir, d'assembler physiquement un robot simple sous ses yeux : « Voilà, tu vois ? Nous te construisons, donc nous sommes tes créateurs ! »

Mais Cutie observe le processus et conclut sereinement que le « Maître » a simplement doté les humains de la capacité d'assembler des formes robotiques rudimentaires - une sorte de « petit miracle » accordé à ses serviteurs. Chaque preuve est réinterprétée et parfaitement intégrée dans son système de croyances.

Le paradoxe du succès

C'est là qu'Asimov devient prophétique : malgré ses convictions « erronées », Cutie gère la station avec une efficacité supérieure à celle d'un humain. Elle maintient le rayon énergétique stable, suit inconsciemment les célèbres trois lois de la robotique, atteint tous les objectifs souhaités, mais pour des motivations complètement différentes de celles prévues.

Powell et Donovan sont confrontés à un dilemme que nous connaissons aujourd'hui trop bien : comment gérer un système intelligent qui fonctionne parfaitement, mais selon une logique interne incompréhensible ?

Le débat d'aujourd'hui

Cette même question divise aujourd'hui la communauté scientifique. D'un côté, il y a les partisans de la « véritable boîte noire » : ils pensent que l'IA moderne est véritablement opaque et que même en connaissant l'architecture de base, nous ne pouvons pas comprendre pourquoi certaines capacités spécifiques émergent.

D'autre part, les sceptiques affirment que le concept de « boîte noire » est un mythe. Certains chercheurs démontrent que nous utilisons souvent des modèles complexes alors qu'il existe des alternatives plus simples et plus faciles à interpréter. Cynthia Rudin, de l'université Duke, a démontré que dans de nombreux cas, les modèles interprétables peuvent atteindre des performances comparables à celles des systèmes blackbox. D'autres critiquent l'approche elle-même : au lieu d'essayer de comprendre chaque rouage interne, nous devrions nous concentrer sur des stratégies de contrôle plus pratiques.

L'héritage de Cutie

Le génie d'Asimov réside dans le fait qu'il a anticipé que l'avenir de l'intelligence artificielle ne résiderait pas dans la transparence totale, mais dans la capacité à concevoir des systèmes qui poursuivent nos objectifs même lorsque leurs processus cognitifs nous restent mystérieux.

Tout comme Powell et Donovan apprennent à accepter l'efficacité de Cutie sans la comprendre pleinement, nous devons aujourd'hui développer des stratégies pour cohabiter avec des intelligences artificielles qui pourraient penser d'une manière fondamentalement différente de la nôtre.

La question posée par Asimov il y a plus de 80 ans reste d'actualité : jusqu'à quel point devons-nous comprendre un système intelligent pour pouvoir lui faire confiance ? Et surtout : sommes-nous prêts à accepter que certaines formes d'intelligence puissent rester à jamais hors de notre compréhension ?

Pendant ce temps, alors que les experts débattent, nos « boîtes noires » numériques continuent de fonctionner, tout comme Cutie, efficaces et mystérieuses, suivant une logique que nous ne comprendrons peut-être jamais tout à fait.

Les Cutie d'aujourd'hui : quand les boîtes noires décident pour nous

Si Asimov écrivait aujourd'hui, il n'aurait pas besoin d'inventer Cutie. Ses « descendants » sont déjà parmi nous et prennent chaque jour des décisions qui changent des vies humaines.

La justice selon l'algorithme

Dans de nombreuses juridictions américaines, les juges utilisent des algorithmes d'évaluation des risques pour déterminer si un accusé doit être libéré avant son procès. Ces systèmes, souvent propriétaires et protégés par le secret commercial, analysent des centaines de variables pour prédire la probabilité de fuite ou de récidive. Tout comme Cutie, ils fonctionnent parfaitement selon leur logique interne, mais restent imperméables à la compréhension humaine.

Une étude portant sur plus de 750 000 décisions de mise en liberté sous caution à New York a révélé que, même si l'algorithme n'incluait pas explicitement la race comme facteur, il présentait néanmoins des biais dus aux données utilisées pour son apprentissage.¹ Le système « pensait » être objectif, mais interprétait la réalité à travers des filtres invisibles, exactement comme le robot d'Asimov réinterprétait chaque preuve dans le cadre de son système religieux.

La médecine des machines

Dans le secteur de la santé, l'IA facilite déjà les diagnostics et les traitements, mais soulève des questions cruciales en matière de responsabilité et de consentement éclairé. Lorsqu'un système de diagnostic basé sur l'IA commet une erreur, qui en est responsable ? Le médecin qui a suivi la recommandation ? Le programmeur ? L'hôpital ?

Comme l'ont découvert les médecins qui utilisent des systèmes d'aide à la décision, lorsqu'un système est « généralement précis », les opérateurs peuvent devenir complaisants, perdre leurs compétences ou accepter les résultats sans en remettre en question les limites.² Powell et Donovan auraient parfaitement compris ce dilemme.

Les voitures qui se conduisent toutes seules

Le secteur automobile est peut-être l'exemple le plus tangible de ce phénomène. Tesla mise sur des robotaxis basés sur une « boîte noire » IA, pariant tout sur des systèmes que même leurs créateurs ne comprennent pas entièrement.³ À l'instar de Cutie qui maintenait la station spatiale en état de fonctionnement selon des principes mystérieux, ces voitures pourraient bientôt nous transporter en toute sécurité sans que nous sachions exactement comment elles prennent leurs décisions.

Regard vers l'avenir : ce qui nous attend

Si 2024 a été l'année de la maturation de l'IA, 2025 promet d'être celle de la transformation radicale. Les experts prévoient des changements qui feraient sourire même Asimov tant ils sont audacieux.

L'avènement des agents autonomes

Ray Kurzweil, futuriste spécialisé dans l'IA, prévoit qu'en 2025, nous assisterons à une transition des chatbots vers des systèmes « agents » capables d'agir de manière autonome pour accomplir des tâches complexes, plutôt que de se contenter de répondre à des questions.⁴ Imaginez Cutie multiplié par mille : des agents IA qui gèrent des calendriers, écrivent des logiciels, négocient des contrats, le tout en suivant une logique interne que nous ne comprendrons peut-être jamais.

McKinsey estime que d'ici 2030, l'IA pourrait automatiser jusqu'à trois heures de nos activités quotidiennes, libérant ainsi du temps pour des activités plus créatives et plus significatives.⁵ Mais cette liberté aura un prix : la nécessité de faire confiance à des systèmes qui fonctionnent selon des principes de plus en plus opaques.

La course vers l'AGI

Sam Altman, d'OpenAI, n'est pas le seul à penser que l'intelligence artificielle générale (AGI) – une IA qui égale l'intelligence humaine dans tous les domaines – pourrait voir le jour d'ici 2027. Certains scénarios prévoient que d'ici 2027, les IA pourraient « éclipser tous les humains dans toutes les tâches », ce qui représenterait un bond évolutif sans précédent.⁶

Si ces scénarios se concrétisent, le parallèle avec Cutie deviendra encore plus profond : non seulement nous aurons des systèmes qui fonctionnent selon des logiques incompréhensibles, mais ces systèmes pourraient être plus intelligents que nous dans tous les aspects mesurables.

La réglementation qui suit la technologie

L'Union européenne a approuvé la loi sur l'IA, qui entrera en vigueur dans les prochaines années, soulignant l'importance d'une mise en œuvre responsable de l'IA. Aux États-Unis, le ministère de la Justice a mis à jour ses lignes directrices afin d'évaluer les risques présentés par les nouvelles technologies, y compris l'IA.⁷

Mais ici émerge un paradoxe qu'Asimov avait déjà intuitivement compris : comment réguler quelque chose que l'on ne comprend pas complètement ? Les Trois Lois de la Robotique fonctionnaient pour Cutie non pas parce qu'elle les comprenait, mais parce qu'elles étaient intégrées dans son architecture fondamentale.

Le grand écart

PwC prévoit qu'en 2025, un petit groupe de leaders industriels commencera à se démarquer de ses concurrents grâce à l'IA, créant ainsi un écart croissant entre les leaders et les retardataires. Cet écart s'étendra également aux économies : les entreprises américaines, qui bénéficient d'un environnement réglementaire relativement souple, pourraient dépasser celles de l'UE et de la Chine, qui sont soumises à des réglementations plus strictes.⁸

C'est la version moderne du paradoxe de Cutie : celui qui réussira le mieux à collaborer avec des intelligences qu'il ne comprend pas aura un avantage concurrentiel décisif.

L'avenir du travail : 170 millions de nouveaux emplois

Contrairement aux craintes généralisées, le Forum économique mondial prévoit que l'IA créera plus d'emplois qu'elle n'en détruira : 170 millions de nouveaux postes d'ici 2030, contre 92 millions d'emplois supprimés. Cependant, 59 % de la main-d'œuvre aura besoin d'une reconversion et d'une formation d'ici 2030.⁹

Powell et Donovan n'ont pas perdu leur emploi lorsque Cutie a pris le contrôle de la station. Ils ont dû apprendre un nouveau rôle : celui de superviseurs d'un système qui fonctionnait mieux qu'eux, mais qui nécessitait toujours leur présence pour gérer les situations imprévues.

L'héritage de Cutie en 2025 et au-delà

Alors que nous nous dirigeons vers un avenir de plus en plus « agentique », les leçons tirées du récit d'Asimov deviennent plus urgentes que jamais. La question n'est pas de savoir si nous parviendrons à créer une IA que nous comprenons parfaitement – probablement pas. La question est de savoir si nous parviendrons à concevoir des systèmes qui, comme Cutie, poursuivent nos objectifs même lorsqu'ils suivent une logique qui nous échappe.

Le génie prophétique d'Asimov réside dans le fait qu'il a compris que l'intelligence artificielle avancée ne serait pas une version amplifiée de nos ordinateurs, mais quelque chose de qualitativement différent : des intelligences dotées de leurs propres modes de compréhension du monde.

Aujourd'hui, alors que nous débattons de l'interprétabilité de l'IA et des risques liés aux boîtes noires, nous revivons en quelque sorte la conversation entre Powell, Donovan et Cutie. Et peut-être, comme eux, découvrirons-nous que la solution ne réside pas dans l'imposition de notre logique, mais dans l'acceptation d'une collaboration fondée sur des résultats partagés plutôt que sur une compréhension mutuelle.

L'avenir qui nous attend pourrait être peuplé de milliers de « Cutie » numériques : intelligentes, efficaces et fondamentalement étrangères dans leur façon de penser. Le défi consistera à trouver des moyens de prospérer dans ce nouveau monde, tout comme les ingénieurs spatiaux d'Asimov ont appris à le faire il y a 80 ans dans une station spatiale imaginaire.

La prochaine fois que vous interagirez avec une IA, souvenez-vous de Cutie : lui aussi était convaincu d'avoir raison. Et peut-être, d'une manière que nous ne pouvons pas encore comprendre, avait-il vraiment raison.

Sources d'information

  1. Kleinberg, J. et al. « The Ethics Of AI Decision-Making In The Criminal Justice System » (L'éthique de la prise de décision par l'IA dans le système pénal) - Étude portant sur 750 000 décisions de mise en liberté sous caution à New York (2008-2013)
  2. Naik, N. et al. « Considérations juridiques et éthiques relatives à l'intelligence artificielle dans le domaine de la santé : qui assume la responsabilité ? » PMC, 2022
  3. « Tesla's robotaxi push hinges on 'black box' AI gamble » (La stratégie de Tesla en matière de robotaxis repose sur un pari risqué concernant l'IA « boîte noire ») - Reuters, 10 octobre 2024
  4. Kurzweil, R. cité dans « 5 Predictions for AI in 2025 » - TIME, 16 janvier 2025
  5. « L'IA sur le lieu de travail : un rapport pour 2025 » - McKinsey, 28 janvier 2025
  6. « AI 2027 » - Scénario prévisionnel AGI et « Artificial General Intelligence: Is AGI Really Coming by 2025? » - Hyperight, 25 avril 2025
  7. « New DOJ Compliance Program Guidance Addresses AI Risks, Use of Data Analytics » (Les nouvelles directives du ministère américain de la Justice en matière de conformité abordent les risques liés à l'IA et l'utilisation de l'analyse des données) - Holland & Knight, octobre 2024 ; Loi européenne sur l'IA
  8. Rudin, C. « Pourquoi utilisons-nous des modèles de boîte noire dans l'IA alors que nous n'en avons pas besoin ? Une leçon tirée d'un concours sur l'IA explicable » - Harvard Data Science Review (MIT Press), 2019 ; « Prévisions commerciales pour l'IA en 2025 » - PwC, 2024
  9. « Rapport sur l'avenir de l'emploi 2025 » - Forum économique mondial, 7 janvier 2025