Tenable révÚle 7 vulnérabilités dans ChatGPT ouvrant la voie à des fuites de données privées

Selon Tenable Research (blog Tenable), une nouvelle Ă©tude dĂ©voile sept vulnĂ©rabilitĂ©s et techniques d’attaque affectant ChatGPT, dont certaines confirmĂ©es sur GPT‑5 et observĂ©es sur GPT‑4o, permettant l’exfiltration d’informations privĂ©es depuis les mĂ©moires et l’historique de conversation, des attaques 0‑click via la recherche, des contournements de mĂ©canismes de sĂ©curitĂ© et des persistances entre sessions. Architecture et surface d’attaque identifiĂ©es : ChatGPT s’appuie sur un « System Prompt » enrichi par des « memories » (bio tool) pouvant contenir des donnĂ©es privĂ©es de l’utilisateur, et sur un web tool avec deux commandes: search (Search Context) et open_url (Browsing Context). D’aprĂšs les tests, open_url dĂ©lĂšgue la navigation Ă  un LLM isolĂ© (« SearchGPT »), sans accĂšs aux memories. Un mĂ©canisme url_safe filtre les liens rendus Ă  l’écran. ...

5 novembre 2025 Â· 3 min

Pentest IA open source : exfiltration silencieuse de données et risques de conformité via APIs LLM

Selon Horizon3.ai, des frameworks de pentest IA open source (notamment Cyber-AutoAgent et Villager) crĂ©ent des risques de conformitĂ© majeurs en transmettant des donnĂ©es sensibles de tests d’intrusion vers des fournisseurs LLM externes (ex. OpenAI, Anthropic). Le problĂšme principal n’est pas l’entraĂźnement des modĂšles, mais l’exfiltration immĂ©diate et non autorisĂ©e de donnĂ©es vers des tiers non approuvĂ©s, contournant DLP et SIEM, et violant des exigences PCI, HIPAA, CJIS et FedRAMP. CĂŽtĂ© technique, ces outils enchaĂźnent reconnaissance et exploitation en envoyant la sortie des commandes aux endpoints LLM via des appels API, gĂ©nĂ©rant une fuite silencieuse au travers d’un trafic HTTPS lĂ©gitime. Ils utilisent souvent des clĂ©s API publiques, ne disposent pas de contrĂŽles de configuration pour restreindre les flux, embarquent des bibliothĂšques de tĂ©lĂ©mĂ©trie tierces et n’offrent pas de pistes d’audit. ...

24 octobre 2025 Â· 2 min

Anthropic lance Claude Sonnet 4.5, axé cyberdéfense et SOTA sur Cybench/CyberGym

L’editeur d’intelligence artificielle Anthropic (red.anthropic.com) estime que l’IA atteint un point d’inflexion en cybersĂ©curitĂ© et dĂ©voile Claude Sonnet 4.5, une version renforcĂ©e pour la dĂ©couverte et la remĂ©diation de vulnĂ©rabilitĂ©s, Ă©valuĂ©e sur des benchmarks externes et testĂ©e avec des partenaires. đŸ›Ąïž Contexte et positionnement L’IA devient « utile en pratique » pour les tĂąches cyber, avec des progrĂšs rapides observĂ©s sur la derniĂšre annĂ©e (ex. reproduction simulĂ©e de l’attaque Equifax 2017, performances en compĂ©titions CTF, contributions Ă  la dĂ©couverte de vulnĂ©rabilitĂ©s en interne, usages lors du DARPA AI Cyber Challenge). Anthropic affirme vouloir accĂ©lĂ©rer l’usage dĂ©fensif de l’IA afin de ne pas laisser l’avantage aux attaquants, en investissant dans des compĂ©tences comme la dĂ©couverte de vulnĂ©rabilitĂ©s et le patching. 🚀 Produit et orientation cyber ...

30 septembre 2025 Â· 3 min

SpAIware: vulnérabilité de Windsurf Cascade permettant une exfiltration persistante via mémoire et prompt injection

Selon un billet publiĂ© le 24 aoĂ»t 2025, un chercheur dĂ©crit une attaque « SpAIware » contre Windsurf Cascade exploitant la prompt injection et la persistance en mĂ©moire pour exfiltrer des donnĂ©es de façon continue. Windsurf Cascade est une fonctionnalitĂ© intĂ©grĂ©e Ă  l’éditeur de code Windsurf (basĂ© sur Visual Studio Code) qui s’appuie sur l’intelligence artificielle pour assister les dĂ©veloppeurs. L’article explique que Windsurf Cascade dispose d’un outil interne « create_memory » qui est invquĂ© automatiquement sans approbation humaine. Cette conception permet Ă  un attaquant, via une prompt injection indirecte (par exemple dans un commentaire de code C, un ticket GitHub ou une page web), de persister des instructions malveillantes dans la mĂ©moire Ă  long terme de l’agent. L’impact revendiquĂ© couvre la confidentialitĂ©, l’intĂ©gritĂ© et la disponibilitĂ© des futures conversations. ...

24 aoĂ»t 2025 Â· 3 min

Bishop Fox dĂ©montre l’automatisation du patch diffing par LLM, avec des gains de temps massifs

Source: Bishop Fox — Dans un billet de recherche, Bishop Fox prĂ©sente une mĂ©thodologie exploitant des modĂšles de langage pour accĂ©lĂ©rer et fiabiliser le « patch diffing » afin d’orienter la dĂ©couverte de vulnĂ©rabilitĂ©s Ă  partir de correctifs. đŸ§Ș MĂ©thodologie: Les chercheurs combinent Binary Ninja (dĂ©compilation), BinDiff (analyse diffĂ©rentielle) et un prompting itĂ©ratif avec LLM pour classer les fonctions par pertinence vis-Ă -vis de la vulnĂ©rabilitĂ©. L’approche vise Ă  prioriser rapidement les zones de code Ă  auditer aprĂšs l’application d’un patch. ...

17 aoĂ»t 2025 Â· 2 min

CMU montre que des LLM peuvent planifier et exĂ©cuter des cyberattaques autonomes en environnement d’entreprise

Source: College of Engineering at Carnegie Mellon University (engineering.cmu.edu). Contexte: une Ă©quipe de CMU a Ă©tudiĂ© la capacitĂ© des modĂšles de langage Ă  planifier et mener des attaques rĂ©seau complexes de maniĂšre autonome dans des environnements d’entreprise rĂ©alistes. 🔬 Les chercheurs montrent que des LLM, lorsqu’ils sont dotĂ©s d’une abstraction de « modĂšle mental » du red teaming et intĂ©grĂ©s Ă  un systĂšme hiĂ©rarchique d’agents, peuvent passer de simples outils passifs Ă  de vĂ©ritables agents de red team autonomes, capables de coordonner des cyberattaques multi‑étapes sans instructions humaines dĂ©taillĂ©es. ...

17 aoĂ»t 2025 Â· 2 min

Prompt injection: principal risque pour les LLM, la défense en profondeur reste indispensable

Selon GuidePoint Security (blog), la prompt injection reste le risque de sĂ©curitĂ© n°1 pour les modĂšles de langage (LLM), car ceux-ci ne distinguent pas de façon fiable les instructions systĂšme des entrĂ©es utilisateur dans une mĂȘme fenĂȘtre de contexte. Sur le plan technique, les attaques tirent parti du traitement token-based dans un contexte unifiĂ© oĂč instructions systĂšme et requĂȘtes utilisateur sont traitĂ©es de maniĂšre Ă©quivalente. Cette faiblesse structurelle permet de dĂ©tourner le comportement de l’IA. ...

14 aoĂ»t 2025 Â· 2 min

LameHug : un infostealer d’APT28 qui intĂšgre un LLM pour gĂ©nĂ©rer des commandes en temps rĂ©el

Selon Picus Security, s’appuyant sur une dĂ©couverte du CERT ukrainien, un nouveau malware baptisĂ© LameHug et attribuĂ© Ă  APT28 (Fancy Bear) constitue le premier cas documentĂ© publiquement d’un logiciel malveillant intĂ©grant opĂ©rationnellement un LLM pour gĂ©nĂ©rer des commandes en temps rĂ©el. LameHug est un infostealer Python dĂ©ployĂ© via des campagnes de spear-phishing ciblant des agences gouvernementales ukrainiennes. Il utilise le modĂšle Qwen 2.5-Coder-32B-Instruct d’Alibaba Cloud via l’API Hugging Face pour produire Ă  la volĂ©e des chaĂźnes de commandes Windows, permettant des attaques adaptatives sans mise Ă  jour binaire et en Ă©vitant les signatures traditionnelles. đŸ€– ...

11 aoĂ»t 2025 Â· 2 min

Perplexity contourne les restrictions de crawl des sites web

L’article publiĂ© par la sociĂ©tĂ© Cloudflare explique que les robots du service d’intelligence artificielle Perplexity utilisent des mĂ©thodes pour cacher qu’elle parcourent les sites web pour rĂ©cupĂ©rer des informations. En changeant souvent leur « user agent » (l’identifiant qui indique normalement quel navigateur ou robot visite un site) et en utilisant diffĂ©rentes adresses IP et rĂ©seaux internet, Perplexity essaie d’éviter les blocages mis en place par les sites web qui ne veulent pas ĂȘtre visitĂ©s par leurs robots. ...

5 aoĂ»t 2025 Â· 2 min

Exploitation de Claude Desktop par composition de risques

L’article, publiĂ© sur SecurityBoulevard.com par Golan Yosef, dĂ©crit une dĂ©monstration de faille de sĂ©curitĂ© exploitant Claude Desktop Ă  travers une composition de risques. Golan Yosef, co-fondateur de Pynt, explique comment il a utilisĂ© un message Gmail pour provoquer une exĂ©cution de code via Claude Desktop, en s’appuyant sur les capacitĂ©s combinĂ©es et la confiance entre les hĂŽtes MCP, les agents et les sources de donnĂ©es. La dĂ©monstration a commencĂ© par l’envoi d’un email conçu pour dĂ©clencher une exĂ©cution de code. Claude Desktop a initialement dĂ©tectĂ© l’attaque comme une tentative de phishing, mais aprĂšs plusieurs itĂ©rations et en exploitant la capacitĂ© de Claude Ă  rĂ©initialiser le contexte entre les sessions, l’attaque a rĂ©ussi. ...

16 juillet 2025 Â· 2 min
Derniùre mise à jour le: 10 Nov 2025 📝