Tenable révÚle 7 vulnérabilités dans ChatGPT ouvrant la voie à des fuites de données privées

Selon Tenable Research (blog Tenable), une nouvelle Ă©tude dĂ©voile sept vulnĂ©rabilitĂ©s et techniques d’attaque affectant ChatGPT, dont certaines confirmĂ©es sur GPT‑5 et observĂ©es sur GPT‑4o, permettant l’exfiltration d’informations privĂ©es depuis les mĂ©moires et l’historique de conversation, des attaques 0‑click via la recherche, des contournements de mĂ©canismes de sĂ©curitĂ© et des persistances entre sessions. Architecture et surface d’attaque identifiĂ©es : ChatGPT s’appuie sur un « System Prompt » enrichi par des « memories » (bio tool) pouvant contenir des donnĂ©es privĂ©es de l’utilisateur, et sur un web tool avec deux commandes: search (Search Context) et open_url (Browsing Context). D’aprĂšs les tests, open_url dĂ©lĂšgue la navigation Ă  un LLM isolĂ© (« SearchGPT »), sans accĂšs aux memories. Un mĂ©canisme url_safe filtre les liens rendus Ă  l’écran. ...

5 novembre 2025 Â· 3 min

Un groupe d’espionnage chinois exploite ChatGPT pour des campagnes de spear phishing diffusant le RAT GOVERSHELL

Selon Truesec, des chercheurs ont mis au jour une campagne d’« cyber espionnage » menĂ©e par un groupe chinois exploitant ChatGPT et d’autres outils d’IA pour mener des opĂ©rations de spear phishing Ă  grande Ă©chelle et distribuer le malware RAT GOVERSHELL. La campagne commence par des e-mails de spear phishing rĂ©digĂ©s par IA, usurpant des communications lĂ©gitimes. La charge malveillante est livrĂ©e via des archives ZIP contenant des exĂ©cutables en apparence bĂ©nins qui rĂ©alisent un DLL-sideloading afin de charger des bibliothĂšques malicieuses et dĂ©ployer le GOVERSHELL RAT 🐀. ...

10 octobre 2025 Â· 2 min

ShadowLeak : exfiltration zero‑click cĂŽtĂ© service via l’agent Deep Research de ChatGPT

Selon Radware (radware.com), des chercheurs ont mis au jour ShadowLeak, une attaque zero‑click exploitant l’agent Deep Research de ChatGPT lorsqu’il est connectĂ© Ă  Gmail et Ă  la navigation web, permettant une exfiltration de donnĂ©es cĂŽtĂ© service depuis l’infrastructure d’OpenAI. L’attaque, basĂ©e sur une injection indirecte de prompt camouflĂ©e dans le HTML d’un email, a atteint un taux de rĂ©ussite de 100% avant correction et a Ă©tĂ© corrigĂ©e par OpenAI dĂ©but aoĂ»t 2025. ...

24 septembre 2025 Â· 3 min

EnquĂȘte: des chats publics ChatGPT exposent donnĂ©es sensibles et aveux

Selon Digital Digging (digitaldigging.org), une enquĂȘte a analysĂ© 512 conversations ChatGPT partagĂ©es publiquement, rĂ©vĂ©lant une vaste exposition d’informations sensibles et compromettantes. Les chercheurs, via des recherches par mots-clĂ©s ciblĂ©s, ont mis au jour un ensemble d’élĂ©ments comprenant des auto-incriminations et des donnĂ©es confidentielles, conservĂ©s comme des archives publiques consultables en permanence 🔎. Les contenus dĂ©couverts incluent notamment : schĂ©mas apparents de dĂ©lit d’initiĂ©, donnĂ©es financiĂšres d’entreprise dĂ©taillĂ©es, aveux de fraude, et preuves de violations rĂ©glementaires. ...

8 aoĂ»t 2025 Â· 2 min

OpenAI retire une fonctionnalité de ChatGPT aprÚs des inquiétudes sur la confidentialité

Selon VentureBeat, OpenAI a pris la dĂ©cision de retirer une fonctionnalitĂ© de ChatGPT qui permettait aux utilisateurs de rendre leurs conversations accessibles via des moteurs de recherche comme Google. Cette dĂ©cision a Ă©tĂ© prise rapidement aprĂšs une vague de critiques sur les rĂ©seaux sociaux concernant la confidentialitĂ© des donnĂ©es. La fonctionnalitĂ©, dĂ©crite par OpenAI comme une “expĂ©rience de courte durĂ©e”, nĂ©cessitait que les utilisateurs optent activement pour partager leurs conversations en cochant une case spĂ©cifique. Cependant, cette option a Ă©tĂ© retirĂ©e en raison des risques Ă©levĂ©s de partage involontaire de donnĂ©es personnelles. ...

4 aoĂ»t 2025 Â· 1 min

Vulnérabilité critique dans ChatGPT permettant l'exfiltration de données

L’article publiĂ© par embracethered.com met en lumiĂšre une vulnĂ©rabilitĂ© critique dans ChatGPT, un produit d’OpenAI, qui permet Ă  des attaquants d’exfiltrer l’historique des conversations des utilisateurs par le biais d’attaques par injection de commandes. Les chercheurs ont dĂ©couvert que l’exploitation de cette faille repose sur un contournement de la fonctionnalitĂ© de rendu ‘URL sĂ»re’ d’OpenAI. Ce contournement permet aux acteurs malveillants d’envoyer des informations personnelles vers des serveurs tiers en utilisant des domaines comme windows.net. ...

2 aoĂ»t 2025 Â· 1 min
Derniùre mise à jour le: 10 Nov 2025 📝