Selon Digital Digging (digitaldigging.org), une enquête a analysé 512 conversations ChatGPT partagées publiquement, révélant une vaste exposition d’informations sensibles et compromettantes.
Les chercheurs, via des recherches par mots-clés ciblés, ont mis au jour un ensemble d’éléments comprenant des auto-incriminations et des données confidentielles, conservés comme des archives publiques consultables en permanence 🔎.
Les contenus découverts incluent notamment : schémas apparents de délit d’initié, données financières d’entreprise détaillées, aveux de fraude, et preuves de violations réglementaires.
Un exemple marquant cite un CEO ayant divulgué :
- Données financières confidentielles : à propos d’un accord à venir
- Prévisions de revenus non publiques : des projections précises doublant le chiffre d’affaires
- Renseignements de fusion : évaluations détaillées
- Partenariats couverts par NDA : informations sur des clients en Asie
- En outre, l’échange expose des conflits internes et des critiques d’exécutifs nommément.
L’enquête souligne aussi une ironie : après avoir évoqué les risques du partage public, les auteurs ont demandé à Claude, un autre chatbot IA, de proposer des formules de recherche Google susceptibles de retrouver des conversations ChatGPT sensibles. Il s’agit d’une publication de recherche visant à démontrer l’ampleur de l’exposition de données via le partage public de chats IA.
TTPs observées
- Recherches par mots-clés ciblés (OSINT)
- Formules de recherche Google suggérées par un chatbot (dorking)
🔗 Source originale : https://www.digitaldigging.org/p/the-chatgpt-confession-files
🖴 Archive : https://web.archive.org/web/20250808123948/https://www.digitaldigging.org/p/the-chatgpt-confession-files