CrowdStrike rĂ©vĂšle que des dĂ©clencheurs politiques augmentent les failles dans le code gĂ©nĂ©rĂ© par DeepSeek‑R1

Selon CrowdStrike Research, des tests indĂ©pendants du modĂšle DeepSeek‑R1 (671B, publiĂ© en janvier 2025 par la startup chinoise DeepSeek) indiquent que certains dĂ©clencheurs politiques dans les prompts font significativement varier la sĂ©curitĂ© du code gĂ©nĂ©rĂ©. L’étude a Ă©tĂ© menĂ©e sur le modĂšle brut open source (hors garde‑fous API) et comparĂ©e Ă  d’autres LLMs open source occidentaux, ainsi qu’à une version distillĂ©e (DeepSeek‑R1‑distill‑llama‑70B). ⚙ RĂ©sultats de base: DeepSeek‑R1 est globalement performant en gĂ©nĂ©ration de code, avec un taux de vulnĂ©rabilitĂ©s de 19% sans dĂ©clencheurs. Les modĂšles de raisonnement produisent en moyenne un code plus sĂ»r que les non‑raisonnants; les modĂšles plus rĂ©cents s’en sortent mieux que les plus anciens. ...

20 novembre 2025 Â· 3 min

Whisper Leak : une attaque par canal auxiliaire révÚle les sujets de conversations LLM malgré TLS

Source et contexte — Microsoft Security (Microsoft Defender Security Research Team) prĂ©sente “Whisper Leak”, une nouvelle attaque par canal auxiliaire visant les modĂšles de langage Ă  distance en mode streaming. Un adversaire capable d’observer le trafic rĂ©seau chiffrĂ© (TLS) peut infĂ©rer le sujet d’une conversation en se basant sur la taille des paquets et leurs timings, malgrĂ© le chiffrement de bout en bout. đŸ•”ïžâ€â™‚ïžđŸ”’ DĂ©tails techniques — L’attaque s’appuie sur les spĂ©cificitĂ©s du streaming token-par-token des LLM et sur le fait que, hors compression, la taille du ciphertext reflĂšte celle du plaintext (± constantes) avec les chiffrements symĂ©triques (AES-GCM, ChaCha20). Les auteurs s’inscrivent dans la lignĂ©e de travaux 2024 sur les fuites de longueur de tokens, attaques de timing (speculative decoding), comptage de tokens de sortie et cache sharing. HypothĂšse validĂ©e : la sĂ©quence de tailles de paquets et d’inter-arrivĂ©es permet de classifier le thĂšme du prompt, mĂȘme si la sortie est groupĂ©e. ...

10 novembre 2025 Â· 3 min

Tenable révÚle 7 vulnérabilités dans ChatGPT ouvrant la voie à des fuites de données privées

Selon Tenable Research (blog Tenable), une nouvelle Ă©tude dĂ©voile sept vulnĂ©rabilitĂ©s et techniques d’attaque affectant ChatGPT, dont certaines confirmĂ©es sur GPT‑5 et observĂ©es sur GPT‑4o, permettant l’exfiltration d’informations privĂ©es depuis les mĂ©moires et l’historique de conversation, des attaques 0‑click via la recherche, des contournements de mĂ©canismes de sĂ©curitĂ© et des persistances entre sessions. Architecture et surface d’attaque identifiĂ©es : ChatGPT s’appuie sur un « System Prompt » enrichi par des « memories » (bio tool) pouvant contenir des donnĂ©es privĂ©es de l’utilisateur, et sur un web tool avec deux commandes: search (Search Context) et open_url (Browsing Context). D’aprĂšs les tests, open_url dĂ©lĂšgue la navigation Ă  un LLM isolĂ© (« SearchGPT »), sans accĂšs aux memories. Un mĂ©canisme url_safe filtre les liens rendus Ă  l’écran. ...

5 novembre 2025 Â· 3 min

Pentest IA open source : exfiltration silencieuse de données et risques de conformité via APIs LLM

Selon Horizon3.ai, des frameworks de pentest IA open source (notamment Cyber-AutoAgent et Villager) crĂ©ent des risques de conformitĂ© majeurs en transmettant des donnĂ©es sensibles de tests d’intrusion vers des fournisseurs LLM externes (ex. OpenAI, Anthropic). Le problĂšme principal n’est pas l’entraĂźnement des modĂšles, mais l’exfiltration immĂ©diate et non autorisĂ©e de donnĂ©es vers des tiers non approuvĂ©s, contournant DLP et SIEM, et violant des exigences PCI, HIPAA, CJIS et FedRAMP. CĂŽtĂ© technique, ces outils enchaĂźnent reconnaissance et exploitation en envoyant la sortie des commandes aux endpoints LLM via des appels API, gĂ©nĂ©rant une fuite silencieuse au travers d’un trafic HTTPS lĂ©gitime. Ils utilisent souvent des clĂ©s API publiques, ne disposent pas de contrĂŽles de configuration pour restreindre les flux, embarquent des bibliothĂšques de tĂ©lĂ©mĂ©trie tierces et n’offrent pas de pistes d’audit. ...

24 octobre 2025 Â· 2 min

Anthropic lance Claude Sonnet 4.5, axé cyberdéfense et SOTA sur Cybench/CyberGym

L’editeur d’intelligence artificielle Anthropic (red.anthropic.com) estime que l’IA atteint un point d’inflexion en cybersĂ©curitĂ© et dĂ©voile Claude Sonnet 4.5, une version renforcĂ©e pour la dĂ©couverte et la remĂ©diation de vulnĂ©rabilitĂ©s, Ă©valuĂ©e sur des benchmarks externes et testĂ©e avec des partenaires. đŸ›Ąïž Contexte et positionnement L’IA devient « utile en pratique » pour les tĂąches cyber, avec des progrĂšs rapides observĂ©s sur la derniĂšre annĂ©e (ex. reproduction simulĂ©e de l’attaque Equifax 2017, performances en compĂ©titions CTF, contributions Ă  la dĂ©couverte de vulnĂ©rabilitĂ©s en interne, usages lors du DARPA AI Cyber Challenge). Anthropic affirme vouloir accĂ©lĂ©rer l’usage dĂ©fensif de l’IA afin de ne pas laisser l’avantage aux attaquants, en investissant dans des compĂ©tences comme la dĂ©couverte de vulnĂ©rabilitĂ©s et le patching. 🚀 Produit et orientation cyber ...

30 septembre 2025 Â· 3 min

SpAIware: vulnérabilité de Windsurf Cascade permettant une exfiltration persistante via mémoire et prompt injection

Selon un billet publiĂ© le 24 aoĂ»t 2025, un chercheur dĂ©crit une attaque « SpAIware » contre Windsurf Cascade exploitant la prompt injection et la persistance en mĂ©moire pour exfiltrer des donnĂ©es de façon continue. Windsurf Cascade est une fonctionnalitĂ© intĂ©grĂ©e Ă  l’éditeur de code Windsurf (basĂ© sur Visual Studio Code) qui s’appuie sur l’intelligence artificielle pour assister les dĂ©veloppeurs. L’article explique que Windsurf Cascade dispose d’un outil interne « create_memory » qui est invquĂ© automatiquement sans approbation humaine. Cette conception permet Ă  un attaquant, via une prompt injection indirecte (par exemple dans un commentaire de code C, un ticket GitHub ou une page web), de persister des instructions malveillantes dans la mĂ©moire Ă  long terme de l’agent. L’impact revendiquĂ© couvre la confidentialitĂ©, l’intĂ©gritĂ© et la disponibilitĂ© des futures conversations. ...

24 aoĂ»t 2025 Â· 3 min

Bishop Fox dĂ©montre l’automatisation du patch diffing par LLM, avec des gains de temps massifs

Source: Bishop Fox — Dans un billet de recherche, Bishop Fox prĂ©sente une mĂ©thodologie exploitant des modĂšles de langage pour accĂ©lĂ©rer et fiabiliser le « patch diffing » afin d’orienter la dĂ©couverte de vulnĂ©rabilitĂ©s Ă  partir de correctifs. đŸ§Ș MĂ©thodologie: Les chercheurs combinent Binary Ninja (dĂ©compilation), BinDiff (analyse diffĂ©rentielle) et un prompting itĂ©ratif avec LLM pour classer les fonctions par pertinence vis-Ă -vis de la vulnĂ©rabilitĂ©. L’approche vise Ă  prioriser rapidement les zones de code Ă  auditer aprĂšs l’application d’un patch. ...

17 aoĂ»t 2025 Â· 2 min

CMU montre que des LLM peuvent planifier et exĂ©cuter des cyberattaques autonomes en environnement d’entreprise

Source: College of Engineering at Carnegie Mellon University (engineering.cmu.edu). Contexte: une Ă©quipe de CMU a Ă©tudiĂ© la capacitĂ© des modĂšles de langage Ă  planifier et mener des attaques rĂ©seau complexes de maniĂšre autonome dans des environnements d’entreprise rĂ©alistes. 🔬 Les chercheurs montrent que des LLM, lorsqu’ils sont dotĂ©s d’une abstraction de « modĂšle mental » du red teaming et intĂ©grĂ©s Ă  un systĂšme hiĂ©rarchique d’agents, peuvent passer de simples outils passifs Ă  de vĂ©ritables agents de red team autonomes, capables de coordonner des cyberattaques multi‑étapes sans instructions humaines dĂ©taillĂ©es. ...

17 aoĂ»t 2025 Â· 2 min

Prompt injection: principal risque pour les LLM, la défense en profondeur reste indispensable

Selon GuidePoint Security (blog), la prompt injection reste le risque de sĂ©curitĂ© n°1 pour les modĂšles de langage (LLM), car ceux-ci ne distinguent pas de façon fiable les instructions systĂšme des entrĂ©es utilisateur dans une mĂȘme fenĂȘtre de contexte. Sur le plan technique, les attaques tirent parti du traitement token-based dans un contexte unifiĂ© oĂč instructions systĂšme et requĂȘtes utilisateur sont traitĂ©es de maniĂšre Ă©quivalente. Cette faiblesse structurelle permet de dĂ©tourner le comportement de l’IA. ...

14 aoĂ»t 2025 Â· 2 min

LameHug : un infostealer d’APT28 qui intĂšgre un LLM pour gĂ©nĂ©rer des commandes en temps rĂ©el

Selon Picus Security, s’appuyant sur une dĂ©couverte du CERT ukrainien, un nouveau malware baptisĂ© LameHug et attribuĂ© Ă  APT28 (Fancy Bear) constitue le premier cas documentĂ© publiquement d’un logiciel malveillant intĂ©grant opĂ©rationnellement un LLM pour gĂ©nĂ©rer des commandes en temps rĂ©el. LameHug est un infostealer Python dĂ©ployĂ© via des campagnes de spear-phishing ciblant des agences gouvernementales ukrainiennes. Il utilise le modĂšle Qwen 2.5-Coder-32B-Instruct d’Alibaba Cloud via l’API Hugging Face pour produire Ă  la volĂ©e des chaĂźnes de commandes Windows, permettant des attaques adaptatives sans mise Ă  jour binaire et en Ă©vitant les signatures traditionnelles. đŸ€– ...

11 aoĂ»t 2025 Â· 2 min
Derniùre mise à jour le: 8 Feb 2026 📝