ChatGPT vous écoute (et pourrait vous dénoncer)

L'affaire OpenAI redéfinit la frontière entre sécurité publique et confidentialité numérique : le défi consiste à protéger la société sans trahir la confiance des utilisateurs. Entre promesses technologiques et zones d'ombre réglementaires, la confiance dans l'IA reste un pari. Des murmures numériques dans un monde qui écoute en permanence.

Le grand changement : OpenAI admet avoir signalé les autorités

En septembre 2025, OpenAI a fait une révélation qui a secoué la communauté technologique mondiale : ChatGPT surveille activement les conversations des utilisateurs et signale les contenus potentiellement criminels aux forces de l'ordre.

La nouvelle, révélée presque par hasard dans un article publié sur le blog de l'entreprise, a révélé que lorsque les systèmes automatiques détectent des utilisateurs qui « envisagent de nuire à autrui », les conversations sont acheminées vers des pipelines spécialisés où une petite équipe formée aux politiques d'utilisation les examine. Si les examinateurs humains déterminent qu'il existe une « menace imminente de préjudice physique grave à autrui », l'affaire peut être signalée aux forces de l'ordre¹.

ChatGPT vous invite cordialement à partager vos pensées les plus intimes. Ne vous inquiétez pas, tout est confidentiel... enfin, plus ou moins.

Sources :

Le contraste avec les professions « protégées »

Le privilège du secret professionnel

Lorsque nous parlons à un psychologue, un avocat, un médecin ou un prêtre, nos paroles sont protégées par un mécanisme juridique bien établi : le secret professionnel. Ce principe, ancré dans des siècles de tradition juridique, établit que certaines conversations sont inviolables, même dans le cadre d'enquêtes pénales.

Caractéristiques du secret professionnel traditionnel :

  • Protection très étendue: les communications restent confidentielles même en cas d'aveux de crimes.
  • Exceptions limitées et spécifiques: ce n'est que dans des cas extrêmes définis par la loi que certains professionnels peuvent/doivent rompre le silence.
  • Contrôle humain qualifié: la décision de violer la confidentialité reste toujours entre les mains d'un professionnel qualifié.
  • Responsabilité éthique: les professionnels sont liés par des codes déontologiques qui équilibrent leurs devoirs envers le client et la société.

Les limites réelles du secret professionnel

Contrairement à la perception commune, le secret professionnel n'est pas absolu. Il existe des exceptions bien définies qui varient selon la catégorie professionnelle :

Pour les avocats (art. 28 du Code de déontologie des avocats) : La divulgation est autorisée lorsqu'elle est nécessaire pour :

  • Le déroulement de l'activité de défense
  • Empêcher la commission d'un délit particulièrement grave
  • Se défendre dans un litige contre son propre client
  • Procédures disciplinaires

Exemple critique: si un client déclare à son avocat qu'il a l'intention de commettre un meurtre, entre la protection du droit à la défense et la protection du bien de la vie, c'est cette dernière qui doit prévaloir et l'avocat est libéré du secret professionnel².

Pour les psychologues (art. 13 du code de déontologie) : Le secret peut être violé lorsque :

  • Il existe une obligation de signalement ou de dénonciation pour les infractions poursuivies d'office.
  • Il existe un danger grave pour la vie ou la santé physique et mentale de la personne et/ou de tiers.
  • Il existe un consentement valable et démontrable du patient.

Distinction importante: le psychologue privé dispose d'une plus grande marge de manœuvre que le psychologue public qui, en tant que fonctionnaire, est soumis à des obligations de signalement plus strictes³.

Sources :

L'IA en tant que « non-professionnel »

ChatGPT opère dans une zone grise complètement différente :

Absence de privilège légal: les conversations avec l'IA ne bénéficient d'aucune protection légale. Comme l'a admis Sam Altman, PDG d'OpenAI : « Si vous parlez de ces problèmes à un thérapeute, un avocat ou un médecin, vous bénéficiez d'un privilège légal. Il y a le secret médical, le secret professionnel, etc. Et nous n'avons pas encore résolu ce problème pour les conversations avec ChatGPT »².

Processus automatisé: contrairement à un professionnel humain qui évalue chaque cas individuellement, ChatGPT utilise des algorithmes pour identifier les contenus « problématiques », éliminant ainsi le jugement humain qualifié de la phase initiale de filtrage.

Sources :

Les implications pratiques : un nouveau paradigme de surveillance

Le paradoxe de la confiance technologique

Cette situation crée un paradoxe inquiétant. Des millions de personnes utilisent ChatGPT comme confident numérique, partageant des pensées intimes, des doutes, des peurs et même des fantasmes criminels qu'elles ne partageraient jamais avec un être humain. Comme le rapporte Sam Altman : « Les gens parlent des aspects les plus personnels de leur vie à ChatGPT. Les gens l'utilisent, en particulier les jeunes, comme thérapeute, coach de vie »⁴.

Le risque d'autocensure criminelle: La conscience que les conversations peuvent être surveillées pourrait paradoxalement :

  • Pousser les criminels vers des canaux plus cachés
  • Empêcher les personnes ayant des pensées violentes de chercher de l'aide
  • Créer un effet « refroidissement » des communications numériques

Compétence contre algorithmes : qui décide de ce qui est criminel ?

Un aspect crucial souligné par les critiques concerne la compétence des personnes qui prennent les décisions finales.

Les professionnels humains ont :

  • Des années de formation pour faire la distinction entre fantasmes et intentions réelles
  • Codes déontologiques qui définissent quand rompre le secret
  • Responsabilité juridique personnelle pour leurs décisions
  • Capacité à évaluer le contexte et la crédibilité

Le système ChatGPT fonctionne avec :

  • Algorithmes automatisés pour la détection initiale
  • Personnel d'OpenAI qui n'a pas nécessairement de formation clinique ou criminologique
  • Critères d'évaluation non publics et potentiellement arbitraires
  • Absence de mécanismes de contrôle externes

Exemple problématique: Comment un algorithme fait-il la distinction entre :

  • Une personne qui écrit un thriller et cherche l'inspiration pour des scènes violentes
  • Quelqu'un qui fantasme sans intention d'agir
  • Une personne qui planifie réellement un crime

Sources :

Sources :

La contradiction d'OpenAI : confidentialité contre sécurité

Le double standard

L'aveu d'OpenAI crée une contradiction flagrante avec ses positions antérieures. L'entreprise a fermement résisté aux demandes de données des utilisateurs dans le cadre de poursuites judiciaires, invoquant la protection de la vie privée. Dans l'affaire contre le New York Times, OpenAI s'est vigoureusement opposé à la divulgation des journaux de discussion afin de protéger la vie privée des utilisateurs⁴.

L'ironie de la situation: OpenAI défend la vie privée des utilisateurs devant les tribunaux tout en admettant simultanément surveiller et partager des données avec des autorités externes.

L'impact de l'affaire New York Times

La situation s'est encore compliquée avec l'ordonnance du tribunal exigeant qu'OpenAI conserve indéfiniment tous les journaux de ChatGPT, y compris les chats privés et les données API. Cela signifie que les conversations que les utilisateurs pensaient temporaires sont désormais archivées de manière permanente⁵.

Sources :

Solutions et alternatives possibles

Vers un « privilège IA » ?

Comme le suggère Sam Altman, il pourrait être nécessaire de développer un concept de « privilège IA », une protection juridique similaire à celle offerte aux professionnels traditionnels. Cependant, cela soulève des questions complexes :

Options réglementaires possibles :

  1. Modèle de licence: seules les IA certifiées peuvent offrir un « privilège conversationnel ».
  2. Formation obligatoire: les personnes qui gèrent des contenus sensibles doivent posséder des qualifications spécifiques.
  3. Supervision professionnelle: implication de psychologues/avocats qualifiés dans les décisions de signalement
  4. Transparence algorithmique: publication des critères utilisés pour identifier les contenus « dangereux »

Solutions techniques intermédiaires

IA « compartimentée » :

  • Systèmes séparés pour usages thérapeutiques vs généraux
  • Chiffrement de bout en bout pour les conversations sensibles
  • Consentement explicite pour chaque type de surveillance

Approche « tripartite » :

  • Détection automatique uniquement pour les menaces immédiates et vérifiables
  • Révision humaine qualifiée obligatoire
  • Procédure d'appel pour les décisions contestées

Le précédent des professionnels du numérique

Leçons tirées d'autres secteurs :

  • Télémédecine: a développé des protocoles pour la confidentialité numérique
  • Conseil juridique en ligne: utilisez le cryptage et les vérifications d'identité
  • Thérapie numérique: applications spécialisées avec protections spécifiques

Sources :

Ce que cela signifie pour les entreprises IA

Cours pour le secteur

L'affaire OpenAI établit des précédents importants pour l'ensemble du secteur de l'intelligence artificielle :

  1. Transparence obligatoire: les entreprises d'IA devront être plus explicites quant à leurs pratiques de surveillance.
  2. Nécessité d'un cadre éthique: une réglementation claire est nécessaire pour définir quand et comment l'IA peut interférer avec les communications privées.
  3. Formation spécialisée: les personnes qui prennent des décisions sur des contenus sensibles doivent disposer des compétences appropriées.
  4. Responsabilité juridique: définir qui est responsable lorsqu'un système d'IA commet une erreur d'évaluation

Recommandations opérationnelles

Pour les entreprises qui développent l'IA conversationnelle :

  • Mettre en place des équipes pluridisciplinaires (juristes, psychologues, criminologues)
  • Développer des critères publics et vérifiables pour le signalement
  • Créer des processus d'appel pour les utilisateurs
  • Investir dans la formation spécialisée du personnel chargé de la révision

Pour les entreprises qui utilisent l'IA :

  • Évaluer les risques liés à la confidentialité avant la mise en œuvre
  • Informer clairement les utilisateurs des limites de la confidentialité
  • Envisager des alternatives spécialisées pour les utilisations sensibles

L'avenir de la confidentialité numérique

Le dilemme central: comment concilier la prévention des crimes réels avec le droit à la vie privée et à la confidentialité numérique ?

La question n'est pas purement technique, mais touche à des principes fondamentaux :

  • Présomption d'innocence: surveiller les conversations privées implique une suspicion généralisée
  • Droit à la vie privée: comprend le droit d'avoir des pensées privées, même dérangeantes.
  • Efficacité préventive: il n'est pas prouvé que la surveillance numérique prévienne efficacement les crimes.

Conclusions : trouver le bon équilibre

La révélation d'OpenAI marque un tournant dans l'évolution de l'intelligence artificielle, mais la question n'est pas de savoir si cette révélation est bonne ou mauvaise en soi : il s'agit plutôt de savoir comment la rendre efficace, équitable et respectueuse des droits.

Le besoin est réel: les menaces concrètes de violence, les projets d'attentats ou d'autres crimes graves nécessitent une intervention. La question n'est pas de savoir s'il faut signaler, mais comment le faire de manière responsable.

Les différences fondamentales à résoudre :

Formation et compétences :

  • Les professionnels humains disposent de protocoles bien établis pour distinguer les menaces réelles des fantasmes.
  • Les systèmes d'IA nécessitent des normes équivalentes et une supervision qualifiée
  • Une formation spécialisée est nécessaire pour ceux qui prennent les décisions finales.

Transparence et contrôle :

  • Les professionnels exercent sous la supervision des ordres professionnels.
  • OpenAI a besoin de critères publics et de mécanismes de contrôle externes
  • Les utilisateurs doivent savoir exactement quand et pourquoi ils peuvent être signalés.

Proportionnalité :

  • Les professionnels évaluent au cas par cas le devoir de confidentialité et la sécurité.
  • Les systèmes d'IA doivent développer des mécanismes similaires, et non des algorithmes binaires.

Pour les entreprises du secteur, le défi consiste à développer des systèmes qui protègent efficacement la société sans devenir des outils de surveillance aveugle. La confiance des utilisateurs est essentielle, mais elle doit coexister avec la responsabilité sociale.

Pour les utilisateurs, la leçon est double :

  1. Les conversations avec l'IA ne bénéficient pas des mêmes protections que celles avec des professionnels traditionnels.
  2. Cela n'est pas nécessairement négatif si cela est fait de manière transparente et proportionnée, mais il est important d'en être conscient.

L'avenir de l'IA conversationnelle nécessite un nouveau cadre qui :

  • Reconnaissez la légitimité de la prévention criminelle
  • Établir des normes professionnelles pour ceux qui gèrent des contenus sensibles
  • Garantir la transparence des processus décisionnels
  • Protéger les droits individuels sans négliger la sécurité

La bonne question n'est pas de savoir si les machines devraient signaler les crimes, mais comment nous pouvons faire en sorte qu'elles le fassent (au moins) avec la même sagesse, la même formation et la même responsabilité que les professionnels humains.

L'objectif n'est pas de revenir à une IA « aveugle » aux dangers réels, mais de construire des systèmes qui combinent l'efficacité technologique avec l'éthique et la compétence humaine. C'est seulement ainsi que nous pourrons bénéficier du meilleur des deux mondes : la sécurité et la protection des droits individuels.

Références et sources

  1. Futurisme - « OpenAI déclare scanner les conversations ChatGPT des utilisateurs et signaler leur contenu à la police »
  2. Cabinet d'avocats Puce - « Secret professionnel de l'avocat »
  3. La loi pour tous - « Le psychologue qui a connaissance d'un délit doit-il dénoncer son patient ? »
  4. TechCrunch - « Sam Altman met en garde contre l'absence de confidentialité juridique lors de l'utilisation de ChatGPT en tant que thérapeute »
  5. Blog Shinkai - « Les conversations ChatGPT d'OpenAI ont été analysées et signalées à la police, suscitant l'indignation des utilisateurs et des craintes en matière de confidentialité »
  6. Simon Willison - « OpenAI dénonce la décision judiciaire visant à conserver tous les journaux ChatGPT, y compris les conversations supprimées »
  7. Success Knocks - « Procès OpenAI 2025 : le NYT fait appel concernant les données ChatGPT »