LayerX révÚle 16 extensions « ChatGPT Mods » volant des tokens de session ChatGPT

Selon LayerX Research, une campagne coordonnĂ©e de 16 extensions de navigateur, majoritairement sur le Chrome Web Store (une sur Microsoft Edge Add-ons), se prĂ©sente comme des « amĂ©liorations » ChatGPT mais vise Ă  voler les identitĂ©s ChatGPT des utilisateurs via l’interception de tokens de session. Environ 900 installations sont associĂ©es Ă  la campagne, et au moment de la publication, les extensions restent disponibles. ⚠ Sur le plan technique, les extensions injectent un content script exĂ©cutĂ© dans le MAIN world JavaScript de chatgpt.com, ce qui leur permet d’interagir directement avec le runtime de la page. Elles hookent window.fetch pour observer les requĂȘtes sortantes, dĂ©tectent les en-tĂȘtes d’autorisation, extraient le token de session, puis l’envoient Ă  un serveur distant. đŸ§© Cette hijacking de session permet aux opĂ©rateurs d’usurper l’identitĂ© des utilisateurs et d’accĂ©der Ă  leurs conversations ainsi qu’aux connecteurs (Google Drive, Slack, GitHub, etc.). ...

31 janvier 2026 Â· 4 min

Politico rĂ©vĂšle que l’actuel directeur intĂ©rimaire de la CISA a tĂ©lĂ©chargĂ© des documents confidentiels dans la version publique de ChatGPT

Selon Politico (27 janv. 2026), Madhu Gottumukkala, directeur par intĂ©rim de la CISA, a importĂ© l’étĂ© dernier des documents de contrats marquĂ©s FOUO (For Official Use Only) dans la version publique de ChatGPT đŸ€–, dĂ©clenchant des alertes de sĂ©curitĂ© automatisĂ©es et une Ă©valuation d’impact au niveau du DHS. Les fichiers n’étaient pas classifiĂ©s, mais Ă©taient considĂ©rĂ©s comme sensibles et non destinĂ©s Ă  la diffusion publique. Gottumukkala avait obtenu une exception d’accĂšs auprĂšs du bureau du CIO de la CISA alors que l’application Ă©tait bloquĂ©e pour les autres employĂ©s. La porte-parole de la CISA affirme qu’il a Ă©tĂ© autorisĂ© Ă  utiliser ChatGPT avec des contrĂŽles DHS, de maniĂšre limitĂ©e et temporaire, et soutient que le dernier usage remonterait Ă  mi-juillet 2025; la CISA maintient par dĂ©faut le blocage de ChatGPT sauf exception, en ligne avec la volontĂ© d’exploiter l’IA dans le cadre de l’EO de Trump. ...

31 janvier 2026 Â· 2 min

Tenable révÚle 7 vulnérabilités dans ChatGPT ouvrant la voie à des fuites de données privées

Selon Tenable Research (blog Tenable), une nouvelle Ă©tude dĂ©voile sept vulnĂ©rabilitĂ©s et techniques d’attaque affectant ChatGPT, dont certaines confirmĂ©es sur GPT‑5 et observĂ©es sur GPT‑4o, permettant l’exfiltration d’informations privĂ©es depuis les mĂ©moires et l’historique de conversation, des attaques 0‑click via la recherche, des contournements de mĂ©canismes de sĂ©curitĂ© et des persistances entre sessions. Architecture et surface d’attaque identifiĂ©es : ChatGPT s’appuie sur un « System Prompt » enrichi par des « memories » (bio tool) pouvant contenir des donnĂ©es privĂ©es de l’utilisateur, et sur un web tool avec deux commandes: search (Search Context) et open_url (Browsing Context). D’aprĂšs les tests, open_url dĂ©lĂšgue la navigation Ă  un LLM isolĂ© (« SearchGPT »), sans accĂšs aux memories. Un mĂ©canisme url_safe filtre les liens rendus Ă  l’écran. ...

5 novembre 2025 Â· 3 min

Un groupe d’espionnage chinois exploite ChatGPT pour des campagnes de spear phishing diffusant le RAT GOVERSHELL

Selon Truesec, des chercheurs ont mis au jour une campagne d’« cyber espionnage » menĂ©e par un groupe chinois exploitant ChatGPT et d’autres outils d’IA pour mener des opĂ©rations de spear phishing Ă  grande Ă©chelle et distribuer le malware RAT GOVERSHELL. La campagne commence par des e-mails de spear phishing rĂ©digĂ©s par IA, usurpant des communications lĂ©gitimes. La charge malveillante est livrĂ©e via des archives ZIP contenant des exĂ©cutables en apparence bĂ©nins qui rĂ©alisent un DLL-sideloading afin de charger des bibliothĂšques malicieuses et dĂ©ployer le GOVERSHELL RAT 🐀. ...

10 octobre 2025 Â· 2 min

ShadowLeak : exfiltration zero‑click cĂŽtĂ© service via l’agent Deep Research de ChatGPT

Selon Radware (radware.com), des chercheurs ont mis au jour ShadowLeak, une attaque zero‑click exploitant l’agent Deep Research de ChatGPT lorsqu’il est connectĂ© Ă  Gmail et Ă  la navigation web, permettant une exfiltration de donnĂ©es cĂŽtĂ© service depuis l’infrastructure d’OpenAI. L’attaque, basĂ©e sur une injection indirecte de prompt camouflĂ©e dans le HTML d’un email, a atteint un taux de rĂ©ussite de 100% avant correction et a Ă©tĂ© corrigĂ©e par OpenAI dĂ©but aoĂ»t 2025. ...

24 septembre 2025 Â· 3 min

EnquĂȘte: des chats publics ChatGPT exposent donnĂ©es sensibles et aveux

Selon Digital Digging (digitaldigging.org), une enquĂȘte a analysĂ© 512 conversations ChatGPT partagĂ©es publiquement, rĂ©vĂ©lant une vaste exposition d’informations sensibles et compromettantes. Les chercheurs, via des recherches par mots-clĂ©s ciblĂ©s, ont mis au jour un ensemble d’élĂ©ments comprenant des auto-incriminations et des donnĂ©es confidentielles, conservĂ©s comme des archives publiques consultables en permanence 🔎. Les contenus dĂ©couverts incluent notamment : schĂ©mas apparents de dĂ©lit d’initiĂ©, donnĂ©es financiĂšres d’entreprise dĂ©taillĂ©es, aveux de fraude, et preuves de violations rĂ©glementaires. ...

8 aoĂ»t 2025 Â· 2 min

OpenAI retire une fonctionnalité de ChatGPT aprÚs des inquiétudes sur la confidentialité

Selon VentureBeat, OpenAI a pris la dĂ©cision de retirer une fonctionnalitĂ© de ChatGPT qui permettait aux utilisateurs de rendre leurs conversations accessibles via des moteurs de recherche comme Google. Cette dĂ©cision a Ă©tĂ© prise rapidement aprĂšs une vague de critiques sur les rĂ©seaux sociaux concernant la confidentialitĂ© des donnĂ©es. La fonctionnalitĂ©, dĂ©crite par OpenAI comme une “expĂ©rience de courte durĂ©e”, nĂ©cessitait que les utilisateurs optent activement pour partager leurs conversations en cochant une case spĂ©cifique. Cependant, cette option a Ă©tĂ© retirĂ©e en raison des risques Ă©levĂ©s de partage involontaire de donnĂ©es personnelles. ...

4 aoĂ»t 2025 Â· 1 min

Vulnérabilité critique dans ChatGPT permettant l'exfiltration de données

L’article publiĂ© par embracethered.com met en lumiĂšre une vulnĂ©rabilitĂ© critique dans ChatGPT, un produit d’OpenAI, qui permet Ă  des attaquants d’exfiltrer l’historique des conversations des utilisateurs par le biais d’attaques par injection de commandes. Les chercheurs ont dĂ©couvert que l’exploitation de cette faille repose sur un contournement de la fonctionnalitĂ© de rendu ‘URL sĂ»re’ d’OpenAI. Ce contournement permet aux acteurs malveillants d’envoyer des informations personnelles vers des serveurs tiers en utilisant des domaines comme windows.net. ...

2 aoĂ»t 2025 Â· 1 min
Derniùre mise à jour le: 8 Feb 2026 📝