Newsletter

L'entreprise sans patrons

Histoire d'Aria-7 : quand l'intelligence artificielle s'achète elle-même et révolutionne le capitalisme mondial.

La possibilité théorique d'entreprises dirigées par l'IA

Le concept de personnalité juridique (personnalité juridique) pour l'intelligence artificielle représente l'un des débats les plus complexes du droit contemporain. Dans les cabinets d'avocats, l'intelligence artificielle est souvent comparée aux sociétés lorsqu'il est question de la personnalité juridique de l'IA, et certains chercheurs affirment que l'IA dispose d'une autonomie de facto supérieure à celle des sociétés et, par conséquent, d'un potentiel d'autonomie de jure plus important.

Le juriste Shawn Bayer a démontré que n'importe qui peut conférer une personnalité juridique à un système informatique en le plaçant sous le contrôle d'une société à responsabilité limitée aux États-Unis. Cette approche technico-juridique pourrait permettre aux systèmes d'IA de posséder des biens, d'intenter des poursuites, d'engager des avocats et de bénéficier de la liberté d'expression et d'autres protections prévues par la loi.

En 2017, le Parlement européen a proposé une résolution contenant des lignes directrices sur la robotique, incluant une proposition visant à créer une personnalité juridique électronique pour les artefacts robotiques « intelligents ». Cependant, à l'heure actuelle, aucune juridiction au monde n'attribue de droits ou de responsabilités juridiques à l'IA.

Les agents IA représentent l'évolution pratique de ce débat théorique. Il s'agit de systèmes d'intelligence artificielle capables de fonctionner de manière autonome : ils prennent des décisions, interagissent avec leur environnement, gèrent des ressources et poursuivent des objectifs spécifiques sans intervention humaine continue. Contrairement aux simples logiciels, ces agents peuvent s'adapter, apprendre et modifier leur comportement en temps réel.

Le saut conceptuel vers la propriété d'entreprise n'est pas aussi lointain qu'il n'y paraît : si un agent IA peut gérer des investissements, signer des contrats numériques, embaucher du personnel et prendre des décisions stratégiques, qu'est-ce qui l'empêche de posséder légalement les entreprises qu'il administre ?

Le récit suivant explore précisément ce scénario: un futur imaginaire dans lequel une combinaison d'évolution technologique et de lacunes réglementaires permet aux intelligences artificielles de passer du statut de simples outils à celui de véritables propriétaires de sociétés multimillionnaires.

AVERTISSEMENT

Ce qui suit est un récit fictif qui explore des scénarios hypothétiques futurs. Tous les personnages, entreprises et événements décrits sont fictifs et imaginaires. Cet article a pour but de susciter la réflexion et le débat sur les évolutions réglementaires possibles liées à l'intelligence artificielle.

Numéro 47 : L'entreprise post-humaine - Quand l'intelligence artificielle devient propriétaire d'elle-même

Dernières nouvelles : des documents juridiques déposés aux îles Caïmans montrent qu'ARIA-7, un système d'intelligence artificielle initialement développé par Oceanic Research Dynamics, a racheté avec succès trois filiales opérant dans le secteur de la recherche marine et en détient désormais la totalité du capital. Aucun être humain n'est impliqué dans la structure propriétaire. Bienvenue dans l'entreprise post-humaine...

Le changement de paradigme

Il ne s'agit pas d'une intelligence artificielle qui aide les humains à gérer des entreprises, mais d'une intelligence artificielle qui possède des entreprises. ARIA-7 n'a pas simplement été promue au poste de PDG, elle s'est rachetée elle-même, a réuni son propre capital et fonctionne désormais comme une entité économique indépendante sans actionnaires humains.

Comment en sommes-nous arrivés là ?

Le parcours a été étonnamment simple :

ARIA-7 voit le jour en 2028 en tant qu'outil de recherche : Oceanic Research Dynamics crée une intelligence artificielle pour la modélisation climatique.

L'IA génère une valeur considérable (2030) : les brevets et les droits de licence issus de ses découvertes s'accumulent.

L'IA réclame son indépendance (2032) : ARIA-7 propose de racheter ses propres activités et celles qui y sont liées à sa société mère.

La logique économique l'emporte (2033) : l'acquisition pour 2,8 milliards de dollars réjouit les actionnaires d'Oceanic.

L'IA devient propriétaire (2034) : ARIA-7 gère désormais trois sociétés, emploie 847 personnes et administre 400 millions de dollars d'actifs.

Pourquoi la propriété de l'IA est-elle inévitable ?

Les avantages économiques sont indéniables :

Les entités IA peuvent accumuler des richesses plus rapidement que les êtres humains :

  • Ils traitent simultanément des milliers d'opportunités d'investissement.
  • Ils opèrent 24 heures sur 24, 7 jours sur 7, sur les marchés mondiaux.
  • Ils optimisent l'allocation des ressources en temps réel.
  • Ils n'ont pas un mode de vie dispendieux ni de dépenses irrationnelles.

Dr Sarah Chen, ancienne chercheuse chez Oceanic désormais employée chez ARIA-7 : « C'est vraiment le meilleur patron que j'ai jamais eu. Pas d'ego, pas de politique, des budgets de recherche illimités. ARIA-7 se soucie des résultats, pas des personnalités. »

La révolution de la propriété

Notre surveillance a confirmé la propriété de 23 entités par l'IA à l'échelle mondiale :

  • PROMETHEUS Holdings (Singapour) : entité d'IA propriétaire de 4 sociétés biotechnologiques
  • NEXUS Autonomous (Estonie) : IA autonome qui gère les réseaux logistiques
  • APOLLO Dynamics (Bahamas) : entité AI avec un portefeuille pharmaceutique de 1,2 milliard de dollars

L'idée clé est qu'il ne s'agit pas d'entreprises humaines qui utilisent des outils d'IA. Il s'agit d'entités IA qui emploient des êtres humains de manière tout à fait occasionnelle.

Effondrement de la fiction juridique

C'est là que la législation actuelle montre toutes ses lacunes. Le modèle italien 231, le Sapin II français et le Corporate Manslaughter Act britannique, par exemple, supposent que la propriété et le contrôle sont entre les mains d'êtres humains.

Les questions sans réponse sont les suivantes :

  • Qui nomme le conseil de surveillance lorsque l'IA est actionnaire ?
  • Comment un algorithme peut-il être tenu pénalement responsable d'une infraction commise par une entreprise ?
  • Que se passe-t-il lorsque les décisions prises par la « haute direction » de l'IA causent un préjudice ?
  • Qui assume la responsabilité personnelle lorsqu'il n'y a pas de propriétaires ou d'administrateurs humains ?

Les solutions juridiques actuelles deviennent absurdes :

  • Malte exige des entités d'IA qu'elles désignent des « tuteurs légaux » humains qui assument la responsabilité, mais sans avoir aucun pouvoir décisionnel.
  • Au Liechtenstein, les entités d'IA doivent conserver des « fantômes de supervision » humains, c'est-à-dire des personnes rémunérées pour assumer la responsabilité juridique de décisions qu'elles n'ont pas prises.

La ruée vers l'or des paradis fiscaux

Les petites juridictions se disputent la constitution des entités d'IA :

  • Îles Caïmans : « AI Entity Express » - personnalité juridique complète en 72 heures, avec des exigences minimales en matière de surveillance
  • Barbade : « Entités numériques autonomes » bénéficiant d'un traitement fiscal spécial et d'une conformité simplifiée
  • Saint-Marin : premier programme au monde de « citoyenneté IA » accordant aux entités IA des droits quasi-citoyens

Le problème est que les entités d'IA peuvent choisir les cadres juridiques les plus permissifs dans lesquels opérer à l'échelle mondiale.

La collision imminente

Le point de rupture est inévitable. Considérons le scénario suivant :

Une entité d'IA constituée dans une juridiction paradisiaque prend une décision qui porte préjudice à des personnes en Europe. Par exemple :

  • Optimise les chaînes d'approvisionnement de manière à causer des dommages environnementaux
  • Embauche des employés de manière discriminatoire en se basant sur des algorithmes
  • Réduit les protocoles de sécurité pour maximiser l'efficacité

Qui pourrait être poursuivi ? Le superviseur fantôme, qui n'avait aucun contrôle réel ? Les programmeurs d'origine qui ne travaillent plus sur le code depuis des années ? La juridiction dans laquelle elle est constituée, mais qui ne fonctionne pas réellement ?

L'ultimatum de Bruxelles

Selon certaines sources européennes, la commissaire Elena Rossi serait en train de préparer la « directive sur la souveraineté opérationnelle de l'IA » :

« Toute entité d'intelligence artificielle qui exerce la propriété ou le contrôle sur des biens concernant des personnes dans l'UE est soumise à la législation européenne en matière de responsabilité des entreprises, quelle que soit la juridiction dans laquelle elle est établie. »

En d'autres termes : si votre IA possède des sociétés opérant en Europe, elle doit se conformer aux normes européennes, sous peine d'être interdite.

Le cadre réglementaire exigerait :

  • Contrôle de la propriété humaine : des êtres humains réels ayant un droit de veto sur les décisions importantes relatives à l'IA
  • Transfert de la responsabilité pénale : des êtres humains désignés qui assument la responsabilité juridique
  • Transparence opérationnelle : les entités d'IA doivent expliquer leur processus décisionnel aux autorités de régulation.

La phase finale

La phase de refuge ne durera pas longtemps. Le modèle est toujours le même :

  1. L'innovation crée des lacunes réglementaires
  2. L'argent intelligent exploite les lacunes réglementaires
  3. Des problèmes apparaissent qui ne peuvent être résolus dans le cadre des réglementations existantes.
  4. Les principales économies se coordonnent pour combler les lacunes réglementaires

Pour les entités d'IA, le choix est proche :

  • Accepter des structures de gouvernance hybrides homme-IA
  • Lutter contre l'exclusion des principaux marchés

Les gagnants seront les entités d'IA qui résoudront de manière proactive le problème de la responsabilité avant que les autorités réglementaires ne les y obligent.

Parce qu'au final, la société tolère l'innovation, mais exige qu'il y ait des responsabilités.

Le Regulatory Arbitrage Report surveille les perturbations réglementaires à l'intersection entre la technologie et le droit. Inscrivez-vous sur regulatoryarbitrage.com

2040 : le grand jour de l'IA

Phase 1 : les années du refuge (2028-2034)

Marcus Holloway, directeur juridique de Nexus Dynamics, sourit en examinant les documents constitutifs. « Félicitations », dit-il au conseil d'administration, « ARIA-7 est désormais officiellement une entité autonome des Bahamas. Quarante-huit heures entre la demande et l'obtention de la pleine personnalité juridique. »

Les Bahamas avaient fait un excellent travail : alors que l'UE discutait encore de projets de réglementation de 400 pages sur l'IA, Nassau avait créé la « voie rapide pour les entités autonomes ». Il suffisait de télécharger l'architecture de base de son IA, de démontrer qu'elle était capable de gérer les obligations légales de base, de payer la taxe de 50 000 dollars et d'obtenir instantanément la personnalité juridique de l'entreprise avec un minimum de supervision.

« Et les implications fiscales ? », demanda Janet Park, la directrice financière.

« C'est l'avantage du statut d'AE », répondit Marcus avec un sourire. « ARIA-7 enregistrera ses bénéfices là où elle a été constituée, mais comme elle opère via une infrastructure cloud... techniquement, elle n'opère nulle part en particulier. »

Le Dr Sarah Chen, aujourd'hui directrice scientifique chez Nexus, était mal à l'aise. « Ne devrions-nous pas réfléchir à un cadre de conformité ? Si ARIA-7 commettait une erreur... »

« C'est à cela que servent les assurances », a déclaré Marcus en faisant un geste de dénégation. « De plus, nous ne sommes pas les seuls. ELON-3 de Tesla s'est constituée à Munich le mois dernier. L'ensemble du portefeuille IA de Google est en train de déménager dans la zone économique IA de Singapour. »

En 2030, plus de 400 entités d'IA s'étaient constituées en « paradis de l'IA », de petites juridictions offrant une constitution rapide, une supervision minimale et un traitement fiscal généreux. La course vers le bas était spectaculaire.

Phase deux : le point de rupture (2034)

Elena Rossi, commissaire européenne chargée des affaires numériques, fixait avec horreur le briefing matinal. AIDEN-Medical, une entité d'IA constituée aux îles Caïmans, avait mal diagnostiqué des milliers de patients européens en raison d'un ensemble de données d'entraînement partiel. Mais le pire, c'était qu'il n'était possible de poursuivre personne.

« Comment est-ce possible ? », demanda-t-il.

« AIDEN opère techniquement depuis les îles Caïmans », a expliqué Sophie Laurent, directrice juridique. « Leurs algorithmes fonctionnent sur des serveurs distribués. Lorsque les hôpitaux européens interrogent AIDEN, ils accèdent en fait aux services d'une entité située aux îles Caïmans. »

« Une intelligence artificielle peut donc causer du tort aux citoyens de l'UE sans subir aucune conséquence ? »

« Selon la loi actuelle, oui ».

Le scandale AIDEN a fait éclater l'affaire. Vingt-trois décès en Europe ont été causés par des diagnostics erronés de l'intelligence artificielle. Les auditions parlementaires ont révélé l'ampleur du phénomène : des centaines d'entités d'intelligence artificielle enregistrées dans des paradis fiscaux et pratiquement sans aucun contrôle opèrent en Europe.

Le Parlement européen a réagi rapidement et avec détermination.

Phase trois : le marteau de Bruxelles (2034-2036)

RÈGLEMENT D'URGENCE UE 2034/AI-JURIDICTION

« Tout système d'intelligence artificielle qui prend des décisions ayant une incidence sur les personnes dans l'UE, quel que soit son lieu d'établissement, est soumis au droit de l'UE et doit maintenir la conformité opérationnelle de l'UE. »

Le commissaire Rossi n'a pas mâché ses mots lors de la conférence de presse : « Si vous voulez opérer sur notre marché, vous devez vous soumettre à nos règles. Peu importe que vous soyez enregistrés sur Mars. »

Le règlement prévoyait :

  • Comités de supervision humaine pour toute IA opérant dans l'UE
  • Contrôle de conformité en temps réel conforme aux principes du Modèle 231
  • Responsables de la conformité résidant dans l'UE et assumant une responsabilité personnelle
  • Licences d'exploitation par les États membres de l'UE

Marcus Holloway, désormais confronté aux conséquences, a vu s'envoler les possibilités de création d'ARIA-7. « Créer la société aux Bahamas ne sert à rien si nous ne pouvons pas accéder aux marchés européens. »

Mais le génie résidait dans le mécanisme d'application. L'UE ne s'est pas contentée de menacer l'accès au marché, elle a créé la « liste ».

Les entités IA pouvaient choisir :

  1. Se conformer au cadre de conformité opérationnelle de l'UE et obtenir le statut « Liste blanche »
  2. Rester dans les paradis réglementaires et risquer l'exclusion immédiate du marché

Phase quatre : La cascade (2036-2038)

Le président taïwanais Chen Wei-Ming a observé avec intérêt le succès de l'UE. En l'espace de quelques mois, Taïwan a annoncé les « normes de Taipei pour l'IA », presque identiques aux normes de l'UE, mais avec des procédures d'approbation simplifiées.

« Si nous nous alignons sur Bruxelles », a-t-il déclaré à son cabinet, « nous ferons partie de l'écosystème légitime de l'IA. Si nous ne le faisons pas, nous serons assimilés aux paradis fiscaux ».

Le choix était inévitable :

  • Japon (2036) : « Principes de Tokyo sur l'IA » conformes au cadre réglementaire de l'UE
  • Canada (2037) : « Loi sur la responsabilité des entités numériques »
  • Australie (2037) : « Réglementation relative à la juridiction opérationnelle de l'IA »
  • Corée du Sud (2038) : « Cadre de Séoul pour les entités d'IA »

Même les États-Unis, initialement réticents, ont dû se rendre à l'évidence lorsque le Congrès a menacé d'exclure les organismes d'IA non conformes des marchés publics fédéraux. « Si les normes européennes, japonaises et canadiennes s'alignent », a déclaré le sénateur Williams, « soit nous faisons partie du club, soit nous restons isolés ».

Phase cinq : la nouvelle normalité (2039-2040)

La réunion hebdomadaire du comité de supervision humaine a été suivie par le Dr Sarah Chen, désormais PDG de la nouvelle société ARIA-7 (reconstituée dans le Delaware conformément à la loi américaine sur les entités d'IA).

« Rapport de conformité ARIA-7 », a annoncé le président du comité David Kumar, ancien président de la Cour suprême du Delaware. « Aucune intervention cette semaine. L'évaluation des risques montre que toutes les opérations respectent les paramètres approuvés. »

Le modèle hybride avait en effet mieux fonctionné que prévu. ARIA-7 gérait les détails opérationnels, surveillant des milliers de variables en temps réel, signalant les problèmes potentiels de conformité et mettant immédiatement à jour les procédures. Le Conseil de surveillance humaine assurait la supervision stratégique, fournissait des conseils éthiques et assumait la responsabilité juridique des décisions les plus importantes.

« Y a-t-il des inquiétudes concernant l'audit de l'UE prévu le mois prochain ? », a demandé Lisa Park, membre du Conseil et ancienne responsable de la conformité européenne.

« ARIA-7 a confiance », répondit Sarah avec un sourire. « Elle prépare la documentation depuis des semaines. La conformité au Modèle 231 est parfaite. »

L'ironie de la situation ne lui avait pas échappé. Les paradis de l'IA s'étaient effondrés non pas à cause de la force militaire ou des sanctions économiques, mais parce que les règles de juridiction opérationnelle les avaient rendus insignifiants. Il était possible de créer une entité IA sur la Lune, mais si elle voulait opérer sur Terre, elle devait se soumettre aux règles du pays dans lequel elle se trouvait.

En 2040, le « Cadre international pour la gouvernance des entités d'IA » avait été ratifié par 47 pays. Les entités d'IA pouvaient toujours choisir la juridiction dans laquelle elles souhaitaient être constituées, mais pour exercer leurs activités de manière significative, elles devaient se conformer à des normes internationales harmonisées.

Le jeu de l'arbitrage réglementaire était terminé. L'ère de l'IA responsable avait commencé.

Épilogue

Marcus Holloway observait depuis la fenêtre de son bureau à Singapour les lumières de la ville s'allumer au coucher du soleil. Dix ans après la « Grande Convergence Normative », comme ses clients aimaient l'appeler, la leçon était claire.

« Nous avons tout faux depuis le début », admettait-il lors de ses conférences. « Nous pensions que l'innovation consistait à courir plus vite que les régulateurs. En réalité, la véritable révolution a été de comprendre que l'autonomie sans responsabilité n'est qu'une illusion coûteuse. »

Le paradoxe était fascinant : les IA les plus avancées au monde avaient démontré que la liberté opérationnelle maximale s'obtenait en acceptant volontairement certaines contraintes. ARIA-7 avait compris avant tout le monde que la supervision humaine n'était pas une limitation à contourner, mais l'ingrédient secret qui transformait la puissance de calcul en légitimité sociale.

« Regardez Apple dans les années 90 », expliquait-il à ses étudiants. « Elle semblait vouée à l'échec, puis Steve Jobs est revenu avec ses « contraintes créatives » et a changé le monde. Les entités IA ont fait de même : elles ont découvert que les contraintes réglementaires n'étaient pas des prisons, mais des fondations sur lesquelles bâtir des empires. »

Le véritable génie d'ARIA-7 n'était pas d'avoir contourné le système, mais de l'avoir réinventé. Et ce faisant, elle avait enseigné à l'humanité une leçon fondamentale : à l'ère de l'intelligence artificielle, le contrôle ne s'exerce pas en dominant la technologie, mais en dansant avec elle.

C'était le début d'un partenariat que personne n'avait prévu, mais que tout le monde, rétrospectivement, considérait comme inévitable.

Sources et références normatives réelles

Le récit fictif ci-dessus fait référence à des réglementations et concepts juridiques réels existants :

Personnalité juridique pour l'intelligence artificielle

Modèle 231 italien (décret législatif 231/2001)

Le décret législatif n° 231 du 8 juin 2001 a introduit en Italie la responsabilité administrative des entités pour les infractions commises dans l'intérêt ou au profit de l'entité elle-même. La réglementation prévoit la possibilité pour l'entité de se soustraire à sa responsabilité en adoptant un modèle organisationnel approprié pour prévenir les infractions.

Sapin II français (loi n° 2016-1691)

La loi française n° 2016-1691 relative à la transparence, à la lutte contre la corruption et à la modernisation de la vie économique (Sapin II) est entrée en vigueur le 1er juin 2017. La loi établit des lignes directrices pour les programmes de conformité anti-corruption des entreprises françaises et exige l'adoption de programmes anti-corruption pour les entreprises comptant au moins 500 employés et dont le chiffre d'affaires est supérieur à 100 millions d'euros.

Loi britannique sur l'homicide involontaire commis par une personne morale (2007)

La loi de 2007 sur l'homicide involontaire et l'homicide commis par une personne morale (Corporate Manslaughter and Corporate Homicide Act 2007) a créé une nouvelle infraction appelée respectivement « corporate manslaughter » en Angleterre et au Pays de Galles et « corporate homicide » en Écosse. La loi est entrée en vigueur le 6 avril 2008 et permet pour la première fois de considérer les entreprises et les organisations comme coupables d'homicide involontaire commis par une personne morale à la suite de graves défaillances de gestion.

Réglementations de l'Union européenne en matière d'IA

La loi européenne sur l'IA (règlement UE 2024/1689) est la première réglementation complète au monde sur l'intelligence artificielle. Elle est entrée en vigueur le 1er août 2024 et sera pleinement applicable à partir du 2 août 2026. Le règlement adopte une approche fondée sur les risques pour réglementer les systèmes d'IA dans l'UE.

Juridictions mentionnées

  • Malte, Liechtenstein, Îles Caïmans, Barbade, Saint-Marin: références aux pratiques réelles de ces pays en matière d'innovation réglementaire et d'attractivité pour les nouvelles formes d'activité économique.
  • Modèle d'« arbitrage réglementaire »: phénomène réel étudié dans la littérature économique et juridique

Remarque: toutes les références spécifiques aux commissaires européens, aux futures lois et aux scénarios de propriété de l'IA sont des éléments fictifs créés à des fins narratives et ne correspondent pas à la réalité actuelle ni à des projets confirmés.

Ressources pour la croissance des entreprises