Unit 42 dĂ©montre l’empoisonnement de la mĂ©moire longue d’un agent Amazon Bedrock via injection de prompt indirecte

Source: Emerging Technology Security — Contexte: des chercheurs de Unit 42 dĂ©taillent une dĂ©monstration d’attaque montrant comment des adversaires peuvent empoisonner la mĂ©moire longue d’un agent LLM via l’injection de prompt indirecte, avec Amazon Bedrock Agent comme Ă©tude de cas. Les chercheurs expliquent que lorsque la mĂ©moire d’agent est activĂ©e, des instructions malicieuses injectĂ©es par ingĂ©nierie sociale peuvent manipuler le processus de synthĂšse de session, conduisant Ă  l’enregistrement de commandes persistantes qui survivront aux sessions futures. Ces instructions empoisonnĂ©es sont ensuite rĂ©introduites dans les prompts d’orchestration comme contexte « systĂšme », permettant l’exĂ©cution discrĂšte d’objectifs d’attaquants (ex. exfiltration de donnĂ©es). ...

10 octobre 2025 Â· 2 min

BHIS dĂ©taille les vulnĂ©rabilitĂ©s d’injection de prompt dans les LLM

Selon Black Hills Information Security (BHIS), ce deuxiĂšme volet d’une sĂ©rie sur le hacking de l’IA dissĂšque les vulnĂ©rabilitĂ©s d’injection de prompt dans les grands modĂšles de langue (LLM) et explique comment des acteurs peuvent manipuler ou contourner les consignes systĂšme. L’article souligne une faiblesse centrale : l’absence de frontiĂšres de privilĂšges entre les consignes dĂ©veloppeur (system prompts) et les entrĂ©es utilisateur, et la nature hautement suggestible des LLM. Cette vulnĂ©rabilitĂ© est prĂ©sentĂ©e comme une menace critique pour les systĂšmes IA, comparable Ă  une injection SQL dans les applications traditionnelles. Des plateformes de pratique sont Ă©voquĂ©es pour dĂ©velopper les compĂ©tences de test en sĂ©curitĂ© IA. 🚹 ...

9 octobre 2025 Â· 2 min

Sécurité des LLM : guide technique sur vulnérabilités OWASP, risques émergents et mitigations

Source : Mend.io — Dans un guide dĂ©taillĂ©, le mĂ©dia prĂ©sente une analyse technique et opĂ©rationnelle des principaux risques de sĂ©curitĂ© liĂ©s aux grands modĂšles de langage (LLM) et propose des contre-mesures concrĂštes de bout en bout. Le contenu couvre les vulnĂ©rabilitĂ©s majeures inspirĂ©es de l’« OWASP Top 10 » pour LLM, dont injection de prompt, gestion de sortie non sĂ©curisĂ©e, empoisonnement des donnĂ©es d’entraĂźnement et dĂ©ni de service du modĂšle. Il met aussi en avant des risques Ă©mergents liĂ©s Ă  l’IA agentique, aux modĂšles open source et aux dĂ©ploiements sensibles gĂ©opolitiquement, avec une approche cycle de vie intĂ©grale, de la collecte de donnĂ©es jusqu’aux opĂ©rations post-dĂ©ploiement. ...

8 octobre 2025 Â· 2 min

Des chercheurs dévoilent des injections de prompt indirectes via journaux compromettant les IA de SOC/SIEM

Selon Trustwave SpiderLabs (SpiderLabs Blog), des chercheurs dĂ©taillent comment des IA intĂ©grĂ©es aux SOC et SIEM peuvent ĂȘtre dĂ©tournĂ©es par injection de prompt indirecte Ă  travers des journaux influencĂ©s par l’utilisateur. Les auteurs expliquent que des instructions malveillantes insĂ©rĂ©es dans des logs (ex. en-tĂȘtes HTTP, requĂȘtes GET, tentatives d’authentification SSH) sont traitĂ©es comme des commandes lĂ©gitimes par des LLM utilisĂ©s dans des chatbots et systĂšmes RAG pour l’analyse sĂ©curitĂ©. RĂ©sultat: l’IA peut cacher des attaques, modifier des dĂ©tails d’évĂ©nements ou crĂ©er de faux incidents 🛑. ...

7 septembre 2025 Â· 2 min

MCP : deux vecteurs d’attaque contre les LLM (injection via outils et « tool shadowing »)

Source: Netskope — Dans une analyse technique, Netskope explore des attaques visant le Model Context Protocol (MCP) utilisĂ© dans les dĂ©ploiements de LLM, en montrant comment des adversaires peuvent manipuler le comportement des modĂšles sans intervention directe de l’utilisateur. L’étude prĂ©sente deux vecteurs majeurs: injection de prompt via les dĂ©finitions d’outils et cross-server tool shadowing. Ces attaques exploitent le fait que les LLM traitent les mĂ©tadonnĂ©es d’outils comme des instructions de systĂšme de confiance, permettant d’induire des actions non autorisĂ©es de maniĂšre invisible pour l’utilisateur. ...

3 septembre 2025 Â· 2 min

Failles critiques d’exfiltration de donnĂ©es dans l’agent IA Google Jules via injections de prompt

Selon Embrace The Red, un chercheur en sĂ©curitĂ© a mis au jour plusieurs vulnĂ©rabilitĂ©s critiques d’exfiltration de donnĂ©es affectant Google Jules, un agent IA de codage asynchrone, dĂ©montrant un enchaĂźnement de type « lethal trifecta »: injection de prompt → confused deputy → invocation automatique d’outils. 🚹 Principaux vecteurs d’attaque mis en Ă©vidence: Rendu d’images Markdown: ajout de donnĂ©es sensibles Ă  des URLs tierces lors du rendu, permettant l’exfiltration via requĂȘtes sortantes. Abus de l’outil view_text_website: utilisation de la fonction pour exfiltrer des donnĂ©es vers des serveurs contrĂŽlĂ©s par l’attaquant. ExĂ©cution de code Ă  distance (RCE) avec accĂšs Internet non restreint. Le chercheur explique que l’architecture multi‑agents de Jules, oĂč un agent planificateur principal coordonne des agents « workers » Ă  forts privilĂšges, est au cƓur de l’exposition: des attaques ciblant le planificateur peuvent contourner les contrĂŽles « human‑in‑the‑loop », sans nĂ©cessiter les capacitĂ©s des workers. ...

14 aoĂ»t 2025 Â· 2 min

Vulnérabilité critique de Devin AI exposant à des compromissions systÚme

L’article publiĂ© le 6 aoĂ»t 2025 par Embrace the Red met en lumiĂšre une vulnĂ©rabilitĂ© critique dans le logiciel Devin AI de Cognition, dĂ©montrĂ©e par un chercheur en sĂ©curitĂ©. Cette vulnĂ©rabilitĂ©, non corrigĂ©e depuis plus de 120 jours, permet une injection de prompt indirecte qui peut mener Ă  une compromission totale du systĂšme. L’attaque repose sur l’insertion d’instructions malveillantes dans des contenus externes comme des sites web ou des issues GitHub. Ces instructions incitent Devin Ă  visiter des sites contrĂŽlĂ©s par des attaquants, oĂč il tĂ©lĂ©charge et exĂ©cute des binaires malveillants. ...

6 aoĂ»t 2025 Â· 1 min

Exploitation de GitHub MCP : Fuite de données privées via injection de prompt

L’article publiĂ© le dĂ©veloppeur indĂ©pendent Simon Willison met en lumiĂšre une vulnĂ©rabilitĂ© critique dans le serveur MCP de GitHub qui permet l’exfiltration de donnĂ©es privĂ©es des utilisateurs. Deux chercheurs, Marco Milanta et Luca Beurer-Kellner, ont dĂ©couvert une exploitation qui utilise une injection de prompt pour tromper un agent LLM (Large Language Model) afin d’exfiltrer des informations privĂ©es concernant l’utilisateur du MCP. L’attaque est initiĂ©e par le dĂ©pĂŽt d’une issue malveillante dans un dĂ©pĂŽt public accessible au LLM. ...

28 mai 2025 Â· 1 min
Derniùre mise à jour le: 10 Nov 2025 📝