Selon Digital Digging (digitaldigging.org), une enquête a analysé 512 conversations ChatGPT partagées publiquement, révélant une vaste exposition d’informations sensibles et compromettantes.

Les chercheurs, via des recherches par mots-clés ciblés, ont mis au jour un ensemble d’éléments comprenant des auto-incriminations et des données confidentielles, conservés comme des archives publiques consultables en permanence 🔎.

Les contenus découverts incluent notamment : schémas apparents de délit d’initié, données financières d’entreprise détaillées, aveux de fraude, et preuves de violations réglementaires.

Un exemple marquant cite un CEO ayant divulgué :

  • Données financières confidentielles : à propos d’un accord à venir
  • Prévisions de revenus non publiques : des projections précises doublant le chiffre d’affaires
  • Renseignements de fusion : évaluations détaillées
  • Partenariats couverts par NDA : informations sur des clients en Asie
  • En outre, l’échange expose des conflits internes et des critiques d’exécutifs nommément.

L’enquête souligne aussi une ironie : après avoir évoqué les risques du partage public, les auteurs ont demandé à Claude, un autre chatbot IA, de proposer des formules de recherche Google susceptibles de retrouver des conversations ChatGPT sensibles. Il s’agit d’une publication de recherche visant à démontrer l’ampleur de l’exposition de données via le partage public de chats IA.

TTPs observées

  • Recherches par mots-clés ciblés (OSINT)
  • Formules de recherche Google suggérées par un chatbot (dorking)

🔗 Source originale : https://www.digitaldigging.org/p/the-chatgpt-confession-files

🖴 Archive : https://web.archive.org/web/20250808123948/https://www.digitaldigging.org/p/the-chatgpt-confession-files