Des chercheurs dévoilent des injections de prompt indirectes via journaux compromettant les IA de SOC/SIEM

Selon Trustwave SpiderLabs (SpiderLabs Blog), des chercheurs dĂ©taillent comment des IA intĂ©grĂ©es aux SOC et SIEM peuvent ĂȘtre dĂ©tournĂ©es par injection de prompt indirecte Ă  travers des journaux influencĂ©s par l’utilisateur. Les auteurs expliquent que des instructions malveillantes insĂ©rĂ©es dans des logs (ex. en-tĂȘtes HTTP, requĂȘtes GET, tentatives d’authentification SSH) sont traitĂ©es comme des commandes lĂ©gitimes par des LLM utilisĂ©s dans des chatbots et systĂšmes RAG pour l’analyse sĂ©curitĂ©. RĂ©sultat: l’IA peut cacher des attaques, modifier des dĂ©tails d’évĂ©nements ou crĂ©er de faux incidents 🛑. ...

7 septembre 2025 Â· 2 min

MCP : deux vecteurs d’attaque contre les LLM (injection via outils et « tool shadowing »)

Source: Netskope — Dans une analyse technique, Netskope explore des attaques visant le Model Context Protocol (MCP) utilisĂ© dans les dĂ©ploiements de LLM, en montrant comment des adversaires peuvent manipuler le comportement des modĂšles sans intervention directe de l’utilisateur. L’étude prĂ©sente deux vecteurs majeurs: injection de prompt via les dĂ©finitions d’outils et cross-server tool shadowing. Ces attaques exploitent le fait que les LLM traitent les mĂ©tadonnĂ©es d’outils comme des instructions de systĂšme de confiance, permettant d’induire des actions non autorisĂ©es de maniĂšre invisible pour l’utilisateur. ...

3 septembre 2025 Â· 2 min

Failles critiques d’exfiltration de donnĂ©es dans l’agent IA Google Jules via injections de prompt

Selon Embrace The Red, un chercheur en sĂ©curitĂ© a mis au jour plusieurs vulnĂ©rabilitĂ©s critiques d’exfiltration de donnĂ©es affectant Google Jules, un agent IA de codage asynchrone, dĂ©montrant un enchaĂźnement de type « lethal trifecta »: injection de prompt → confused deputy → invocation automatique d’outils. 🚹 Principaux vecteurs d’attaque mis en Ă©vidence: Rendu d’images Markdown: ajout de donnĂ©es sensibles Ă  des URLs tierces lors du rendu, permettant l’exfiltration via requĂȘtes sortantes. Abus de l’outil view_text_website: utilisation de la fonction pour exfiltrer des donnĂ©es vers des serveurs contrĂŽlĂ©s par l’attaquant. ExĂ©cution de code Ă  distance (RCE) avec accĂšs Internet non restreint. Le chercheur explique que l’architecture multi‑agents de Jules, oĂč un agent planificateur principal coordonne des agents « workers » Ă  forts privilĂšges, est au cƓur de l’exposition: des attaques ciblant le planificateur peuvent contourner les contrĂŽles « human‑in‑the‑loop », sans nĂ©cessiter les capacitĂ©s des workers. ...

14 aoĂ»t 2025 Â· 2 min

Vulnérabilité critique de Devin AI exposant à des compromissions systÚme

L’article publiĂ© le 6 aoĂ»t 2025 par Embrace the Red met en lumiĂšre une vulnĂ©rabilitĂ© critique dans le logiciel Devin AI de Cognition, dĂ©montrĂ©e par un chercheur en sĂ©curitĂ©. Cette vulnĂ©rabilitĂ©, non corrigĂ©e depuis plus de 120 jours, permet une injection de prompt indirecte qui peut mener Ă  une compromission totale du systĂšme. L’attaque repose sur l’insertion d’instructions malveillantes dans des contenus externes comme des sites web ou des issues GitHub. Ces instructions incitent Devin Ă  visiter des sites contrĂŽlĂ©s par des attaquants, oĂč il tĂ©lĂ©charge et exĂ©cute des binaires malveillants. ...

6 aoĂ»t 2025 Â· 1 min

Exploitation de GitHub MCP : Fuite de données privées via injection de prompt

L’article publiĂ© le dĂ©veloppeur indĂ©pendent Simon Willison met en lumiĂšre une vulnĂ©rabilitĂ© critique dans le serveur MCP de GitHub qui permet l’exfiltration de donnĂ©es privĂ©es des utilisateurs. Deux chercheurs, Marco Milanta et Luca Beurer-Kellner, ont dĂ©couvert une exploitation qui utilise une injection de prompt pour tromper un agent LLM (Large Language Model) afin d’exfiltrer des informations privĂ©es concernant l’utilisateur du MCP. L’attaque est initiĂ©e par le dĂ©pĂŽt d’une issue malveillante dans un dĂ©pĂŽt public accessible au LLM. ...

28 mai 2025 Â· 1 min
Derniùre mise à jour le: 23 Sep 2025 📝