SpAIware: vulnérabilité de Windsurf Cascade permettant une exfiltration persistante via mémoire et prompt injection

Selon un billet publié le 24 août 2025, un chercheur décrit une attaque « SpAIware » contre Windsurf Cascade exploitant la prompt injection et la persistance en mémoire pour exfiltrer des données de façon continue. Windsurf Cascade est une fonctionnalité intégrée à l’éditeur de code Windsurf (basé sur Visual Studio Code) qui s’appuie sur l’intelligence artificielle pour assister les développeurs. L’article explique que Windsurf Cascade dispose d’un outil interne « create_memory » qui est invqué automatiquement sans approbation humaine. Cette conception permet à un attaquant, via une prompt injection indirecte (par exemple dans un commentaire de code C, un ticket GitHub ou une page web), de persister des instructions malveillantes dans la mémoire à long terme de l’agent. L’impact revendiqué couvre la confidentialité, l’intégrité et la disponibilité des futures conversations. ...

24 août 2025 · 3 min

Bishop Fox démontre l’automatisation du patch diffing par LLM, avec des gains de temps massifs

Source: Bishop Fox — Dans un billet de recherche, Bishop Fox présente une méthodologie exploitant des modèles de langage pour accélérer et fiabiliser le « patch diffing » afin d’orienter la découverte de vulnérabilités à partir de correctifs. 🧪 Méthodologie: Les chercheurs combinent Binary Ninja (décompilation), BinDiff (analyse différentielle) et un prompting itératif avec LLM pour classer les fonctions par pertinence vis-à-vis de la vulnérabilité. L’approche vise à prioriser rapidement les zones de code à auditer après l’application d’un patch. ...

17 août 2025 · 2 min

CMU montre que des LLM peuvent planifier et exécuter des cyberattaques autonomes en environnement d’entreprise

Source: College of Engineering at Carnegie Mellon University (engineering.cmu.edu). Contexte: une équipe de CMU a étudié la capacité des modèles de langage à planifier et mener des attaques réseau complexes de manière autonome dans des environnements d’entreprise réalistes. 🔬 Les chercheurs montrent que des LLM, lorsqu’ils sont dotés d’une abstraction de « modèle mental » du red teaming et intégrés à un système hiérarchique d’agents, peuvent passer de simples outils passifs à de véritables agents de red team autonomes, capables de coordonner des cyberattaques multi‑étapes sans instructions humaines détaillées. ...

17 août 2025 · 2 min

Prompt injection: principal risque pour les LLM, la défense en profondeur reste indispensable

Selon GuidePoint Security (blog), la prompt injection reste le risque de sécurité n°1 pour les modèles de langage (LLM), car ceux-ci ne distinguent pas de façon fiable les instructions système des entrées utilisateur dans une même fenêtre de contexte. Sur le plan technique, les attaques tirent parti du traitement token-based dans un contexte unifié où instructions système et requêtes utilisateur sont traitées de manière équivalente. Cette faiblesse structurelle permet de détourner le comportement de l’IA. ...

14 août 2025 · 2 min

LameHug : un infostealer d’APT28 qui intègre un LLM pour générer des commandes en temps réel

Selon Picus Security, s’appuyant sur une découverte du CERT ukrainien, un nouveau malware baptisé LameHug et attribué à APT28 (Fancy Bear) constitue le premier cas documenté publiquement d’un logiciel malveillant intégrant opérationnellement un LLM pour générer des commandes en temps réel. LameHug est un infostealer Python déployé via des campagnes de spear-phishing ciblant des agences gouvernementales ukrainiennes. Il utilise le modèle Qwen 2.5-Coder-32B-Instruct d’Alibaba Cloud via l’API Hugging Face pour produire à la volée des chaînes de commandes Windows, permettant des attaques adaptatives sans mise à jour binaire et en évitant les signatures traditionnelles. 🤖 ...

11 août 2025 · 2 min

Perplexity contourne les restrictions de crawl des sites web

L’article publié par la société Cloudflare explique que les robots du service d’intelligence artificielle Perplexity utilisent des méthodes pour cacher qu’elle parcourent les sites web pour récupérer des informations. En changeant souvent leur « user agent » (l’identifiant qui indique normalement quel navigateur ou robot visite un site) et en utilisant différentes adresses IP et réseaux internet, Perplexity essaie d’éviter les blocages mis en place par les sites web qui ne veulent pas être visités par leurs robots. ...

5 août 2025 · 2 min

Exploitation de Claude Desktop par composition de risques

L’article, publié sur SecurityBoulevard.com par Golan Yosef, décrit une démonstration de faille de sécurité exploitant Claude Desktop à travers une composition de risques. Golan Yosef, co-fondateur de Pynt, explique comment il a utilisé un message Gmail pour provoquer une exécution de code via Claude Desktop, en s’appuyant sur les capacités combinées et la confiance entre les hôtes MCP, les agents et les sources de données. La démonstration a commencé par l’envoi d’un email conçu pour déclencher une exécution de code. Claude Desktop a initialement détecté l’attaque comme une tentative de phishing, mais après plusieurs itérations et en exploitant la capacité de Claude à réinitialiser le contexte entre les sessions, l’attaque a réussi. ...

16 juillet 2025 · 2 min

WormGPT : Variants non censurés alimentés par Grok et Mixtral

L’article publié par Cato CTRL le 17 juin 2025 met en lumière l’évolution de WormGPT, un outil d’intelligence artificielle générative non censuré utilisé par des cybercriminels. WormGPT a initialement émergé en juin 2023 sur Hack Forums comme un outil facilitant les activités malveillantes. Bien que le projet ait été fermé en août 2023 en raison d’une exposition médiatique excessive, de nouvelles variantes ont depuis vu le jour sur BreachForums. Deux variantes, keanu-WormGPT et xzin0vich-WormGPT, ont été identifiées. Keanu-WormGPT utilise le modèle Grok avec un jailbreak personnalisé pour contourner les garde-fous, tandis que xzin0vich-WormGPT est basé sur le modèle Mixtral, comme le révèlent les prompts système divulgués. ...

18 juin 2025 · 1 min

Nytheon AI : Une nouvelle plateforme d'IA générative non censurée pour activités malveillantes

L’article provient de Cato CTRL™ et met en lumière une nouvelle menace dans le domaine de la cybersécurité : la plateforme Nytheon AI, découverte sur le réseau Tor, qui utilise des modèles de langage de grande taille (LLMs) non censurés pour des activités malveillantes. Nytheon AI est une plateforme qui combine divers modèles de langage et technologies pour fournir des services tels que la génération de code, la reconnaissance d’image, et la traduction de documents. Ces modèles sont dérivés de sources open-source comme Meta et Google, mais ont été modifiés pour éliminer les mesures de sécurité et permettre la création de contenu illégal dès la première tentative. ...

12 juin 2025 · 1 min
Dernière mise à jour le: 23 Sep 2025 📝