En septembre 2025, OpenAI a fait une révélation qui a secoué la communauté technologique mondiale : ChatGPT surveille activement les conversations des utilisateurs et signale les contenus potentiellement criminels aux forces de l'ordre.
La nouvelle, révélée presque par hasard dans un article publié sur le blog de l'entreprise, a révélé que lorsque les systèmes automatiques détectent des utilisateurs qui « envisagent de nuire à autrui », les conversations sont acheminées vers des pipelines spécialisés où une petite équipe formée aux politiques d'utilisation les examine. Si les examinateurs humains déterminent qu'il existe une « menace imminente de préjudice physique grave à autrui », l'affaire peut être signalée aux forces de l'ordre¹.

ChatGPT vous invite cordialement à partager vos pensées les plus intimes. Ne vous inquiétez pas, tout est confidentiel... enfin, plus ou moins.
Sources :
Lorsque nous parlons à un psychologue, un avocat, un médecin ou un prêtre, nos paroles sont protégées par un mécanisme juridique bien établi : le secret professionnel. Ce principe, ancré dans des siècles de tradition juridique, établit que certaines conversations sont inviolables, même dans le cadre d'enquêtes pénales.
Caractéristiques du secret professionnel traditionnel :
Contrairement à la perception commune, le secret professionnel n'est pas absolu. Il existe des exceptions bien définies qui varient selon la catégorie professionnelle :
Pour les avocats (art. 28 du Code de déontologie des avocats) : La divulgation est autorisée lorsqu'elle est nécessaire pour :
Exemple critique: si un client déclare à son avocat qu'il a l'intention de commettre un meurtre, entre la protection du droit à la défense et la protection du bien de la vie, c'est cette dernière qui doit prévaloir et l'avocat est libéré du secret professionnel².
Pour les psychologues (art. 13 du code de déontologie) : Le secret peut être violé lorsque :
Distinction importante: le psychologue privé dispose d'une plus grande marge de manœuvre que le psychologue public qui, en tant que fonctionnaire, est soumis à des obligations de signalement plus strictes³.
Sources :
ChatGPT opère dans une zone grise complètement différente :
Absence de privilège légal: les conversations avec l'IA ne bénéficient d'aucune protection légale. Comme l'a admis Sam Altman, PDG d'OpenAI : « Si vous parlez de ces problèmes à un thérapeute, un avocat ou un médecin, vous bénéficiez d'un privilège légal. Il y a le secret médical, le secret professionnel, etc. Et nous n'avons pas encore résolu ce problème pour les conversations avec ChatGPT »².
Processus automatisé: contrairement à un professionnel humain qui évalue chaque cas individuellement, ChatGPT utilise des algorithmes pour identifier les contenus « problématiques », éliminant ainsi le jugement humain qualifié de la phase initiale de filtrage.
Sources :
Cette situation crée un paradoxe inquiétant. Des millions de personnes utilisent ChatGPT comme confident numérique, partageant des pensées intimes, des doutes, des peurs et même des fantasmes criminels qu'elles ne partageraient jamais avec un être humain. Comme le rapporte Sam Altman : « Les gens parlent des aspects les plus personnels de leur vie à ChatGPT. Les gens l'utilisent, en particulier les jeunes, comme thérapeute, coach de vie »⁴.
Le risque d'autocensure criminelle: La conscience que les conversations peuvent être surveillées pourrait paradoxalement :
Un aspect crucial souligné par les critiques concerne la compétence des personnes qui prennent les décisions finales.
Les professionnels humains ont :
Le système ChatGPT fonctionne avec :
Exemple problématique: Comment un algorithme fait-il la distinction entre :
Sources :
Sources :
L'aveu d'OpenAI crée une contradiction flagrante avec ses positions antérieures. L'entreprise a fermement résisté aux demandes de données des utilisateurs dans le cadre de poursuites judiciaires, invoquant la protection de la vie privée. Dans l'affaire contre le New York Times, OpenAI s'est vigoureusement opposé à la divulgation des journaux de discussion afin de protéger la vie privée des utilisateurs⁴.
L'ironie de la situation: OpenAI défend la vie privée des utilisateurs devant les tribunaux tout en admettant simultanément surveiller et partager des données avec des autorités externes.
La situation s'est encore compliquée avec l'ordonnance du tribunal exigeant qu'OpenAI conserve indéfiniment tous les journaux de ChatGPT, y compris les chats privés et les données API. Cela signifie que les conversations que les utilisateurs pensaient temporaires sont désormais archivées de manière permanente⁵.
Sources :
Comme le suggère Sam Altman, il pourrait être nécessaire de développer un concept de « privilège IA », une protection juridique similaire à celle offerte aux professionnels traditionnels. Cependant, cela soulève des questions complexes :
Options réglementaires possibles :
IA « compartimentée » :
Approche « tripartite » :
Leçons tirées d'autres secteurs :
Sources :
L'affaire OpenAI établit des précédents importants pour l'ensemble du secteur de l'intelligence artificielle :
Pour les entreprises qui développent l'IA conversationnelle :
Pour les entreprises qui utilisent l'IA :
Le dilemme central: comment concilier la prévention des crimes réels avec le droit à la vie privée et à la confidentialité numérique ?
La question n'est pas purement technique, mais touche à des principes fondamentaux :
La révélation d'OpenAI marque un tournant dans l'évolution de l'intelligence artificielle, mais la question n'est pas de savoir si cette révélation est bonne ou mauvaise en soi : il s'agit plutôt de savoir comment la rendre efficace, équitable et respectueuse des droits.
Le besoin est réel: les menaces concrètes de violence, les projets d'attentats ou d'autres crimes graves nécessitent une intervention. La question n'est pas de savoir s'il faut signaler, mais comment le faire de manière responsable.
Les différences fondamentales à résoudre :
Formation et compétences :
Transparence et contrôle :
Proportionnalité :
Pour les entreprises du secteur, le défi consiste à développer des systèmes qui protègent efficacement la société sans devenir des outils de surveillance aveugle. La confiance des utilisateurs est essentielle, mais elle doit coexister avec la responsabilité sociale.
Pour les utilisateurs, la leçon est double :
L'avenir de l'IA conversationnelle nécessite un nouveau cadre qui :
La bonne question n'est pas de savoir si les machines devraient signaler les crimes, mais comment nous pouvons faire en sorte qu'elles le fassent (au moins) avec la même sagesse, la même formation et la même responsabilité que les professionnels humains.
L'objectif n'est pas de revenir à une IA « aveugle » aux dangers réels, mais de construire des systèmes qui combinent l'efficacité technologique avec l'éthique et la compétence humaine. C'est seulement ainsi que nous pourrons bénéficier du meilleur des deux mondes : la sécurité et la protection des droits individuels.