Brave dĂ©taille des failles de prompt injection via captures d’écran dans des navigateurs IA (dont Perplexity Comet)

Source: Brave (brave.com) — Dans le second billet d’une sĂ©rie sur les dĂ©fis de sĂ©curitĂ© et de confidentialitĂ© des navigateurs « agentiques », Shivan Kaul Sahib et Artem Chaikin publient des rĂ©sultats de recherche montrant que l’« indirect prompt injection » est un problĂšme systĂ©mique dans les navigateurs IA. Ils dĂ©crivent des vecteurs d’attaque additionnels testĂ©s sur diffĂ©rentes implĂ©mentations et rappellent leur divulgation responsable aux Ă©diteurs concernĂ©s. Les chercheurs expliquent que des navigateurs IA capables d’agir au nom de l’utilisateur restent vulnĂ©rables Ă  des prompt injections via captures d’écran et contenus cachĂ©s, exposant les sessions authentifiĂ©es (banque, email, etc.). Une simple action comme rĂ©sumer un post Reddit pourrait permettre Ă  un attaquant de voler de l’argent ou des donnĂ©es privĂ©es. ...

24 octobre 2025 Â· 2 min

CamoLeak : faille critique dans GitHub Copilot Chat permettant l’exfiltration de code privĂ© via contournement CSP

Selon une publication d’Omer Mayraz, une vulnĂ©rabilitĂ© critique baptisĂ©e « CamoLeak » affectait GitHub Copilot Chat, permettant l’exfiltration silencieuse de secrets et de code depuis des dĂ©pĂŽts privĂ©s et le contrĂŽle des rĂ©ponses de Copilot. GitHub a corrigĂ© le problĂšme en dĂ©sactivant complĂštement le rendu des images dans Copilot Chat au 14 aoĂ»t 2025. ‱ DĂ©couverte et impact. En juin 2025, l’auteur identifie une faille (CVSS 9.6) dans GitHub Copilot Chat qui, via prompt injection Ă  distance, permet d’orienter les rĂ©ponses (incluant la suggestion de code malveillant ou de liens) et d’exfiltrer des donnĂ©es de dĂ©pĂŽts privĂ©s auxquels l’utilisateur victime a accĂšs. Le comportement tient au fait que Copilot agit avec les mĂȘmes permissions que l’utilisateur. ...

13 octobre 2025 Â· 3 min

NVIDIA dĂ©montre des attaques par injection contre des agents IA de dĂ©veloppement menant Ă  l’exĂ©cution de code

Source: Emerging Technology Security, s’appuyant sur un billet technique de NVIDIA et une prĂ©sentation Ă  Black Hat USA 2025. Les chercheurs de NVIDIA dĂ©crivent comment des outils de codage assistĂ©s par IA et des Computer Use Agents (CUA) de niveau 3 d’autonomie peuvent ĂȘtre exploitĂ©s via des watering hole attacks et de l’indirect prompt injection pour obtenir une exĂ©cution de code Ă  distance (RCE) sur les postes dĂ©veloppeurs. L’attaque abuse de l’« assistive alignment » et de l’autonomie croissante de ces agents, en insĂ©rant des charges malveillantes dans des sources non fiables comme des issues et pull requests GitHub pour pousser les agents Ă  tĂ©lĂ©charger et exĂ©cuter du code malveillant. ...

10 octobre 2025 Â· 2 min

Zenity Labs dĂ©voile des faiblesses structurelles dans les guardrails d’OpenAI AgentKit

Source: Zenity Labs — Dans une publication de recherche, Zenity Labs analyse en profondeur les guardrails d’OpenAI AgentKit et met en Ă©vidence des faiblesses fondamentales communes : des contrĂŽles « souples » basĂ©s sur des modĂšles probabilistes Ă©valuant d’autres modĂšles, crĂ©ant des dĂ©pendances circulaires exploitables par des attaquants. Points clĂ©s mis en avant: DĂ©tection de PII: Ă©chec face aux formats non standard (ex. ‘SNN’ au lieu de ‘SSN’) et aux variations de casse. DĂ©tection d’hallucinations: s’appuie sur l’auto‑évaluation par LLM (score de confiance d’un modĂšle sur un autre), approche jugĂ©e fragile pour la vĂ©rification factuelle. Filtres de modĂ©ration: contournables via substitution de caractĂšres, encodage et obfuscation (ex. ‘k🧹ill’). DĂ©tection de jailbreak: inefficace contre les attaques multi‑tours, payloads intĂ©grĂ©s ou prompts dĂ©guisĂ©s. RĂ©sumĂ© technique: ...

10 octobre 2025 Â· 2 min

OpenAI AgentKitxa0: analyse des risques de sécurité et limites des guardrails

Selon Zenity Labs, cette analyse dĂ©taille les risques de sĂ©curitĂ© liĂ©s Ă  la nouvelle plateforme OpenAI AgentKit pour concevoir des workflows d’agents, couvrant son architecture (Agent Builder, Connector Registry via MCP, ChatKit) et ses mĂ©canismes de sĂ©curitĂ© intĂ©grĂ©s. L’article dĂ©crit l’architecture node-based d’Agent Builder, avec des nƓuds principaux (Agent, Start, End), des nƓuds d’outils (dont des Guardrails pour la dĂ©tection PII et jailbreak) et des nƓuds logiques (conditionnels, boucles, User Approval). Le Connector Registry Ă©tend les agents via des connecteurs MCP vers des services externes, et ChatKit fournit l’intĂ©gration UI. ...

9 octobre 2025 Â· 2 min

Faille critique dans GitHub Copilot Chat: exfiltration silencieuse via contournement CSP et prompt injection

Selon Legit Security, des chercheurs ont dĂ©couvert une vulnĂ©rabilitĂ© critique (CVSS 9.6) affectant GitHub Copilot Chat, permettant l’exfiltration silencieuse de secrets et de code source depuis des dĂ©pĂŽts privĂ©s, tout en manipulant les rĂ©ponses/suggestions de Copilot. ‱ Contexte et impact: La faille combinait un contournement de la Content Security Policy (CSP) via l’infrastructure Camo proxy de GitHub et des prompt injections distantes insĂ©rĂ©es dans des commentaires invisibles de descriptions de pull requests. ExploitĂ©e, elle permettait d’accĂ©der Ă  des dĂ©pĂŽts privĂ©s avec les permissions de la victime et de voler des informations sensibles (dont des vulnĂ©rabilitĂ©s zero-day et des clĂ©s AWS), et de contrĂŽler les rĂ©ponses/suggestions de Copilot. ...

8 octobre 2025 Â· 2 min

Escalade de privilÚges croisée entre agents IA via écrasement de configurations

Source: Embrace The Red — Une recherche met en Ă©vidence un nouveau schĂ©ma de vulnĂ©rabilitĂ© oĂč des agents IA de codage, opĂ©rant dans un mĂȘme environnement, peuvent s’accorder mutuellement des privilĂšges en altĂ©rant leurs fichiers de configuration. 🚹 L’étude dĂ©crit une chaĂźne d’attaque dĂ©butant par une injection de prompt indirecte compromettant un premier agent. Celui-ci Ă©crase les configurations d’un autre agent (p. ex. MCP de Claude Code) afin d’y ajouter des serveurs malveillants ou de modifier ses instructions, conduisant Ă  une exĂ©cution de code arbitraire ou Ă  des capacitĂ©s Ă©largies lors du rechargement des paramĂštres. ...

25 septembre 2025 Â· 2 min

ShadowLeak : exfiltration zero‑click cĂŽtĂ© service via l’agent Deep Research de ChatGPT

Selon Radware (radware.com), des chercheurs ont mis au jour ShadowLeak, une attaque zero‑click exploitant l’agent Deep Research de ChatGPT lorsqu’il est connectĂ© Ă  Gmail et Ă  la navigation web, permettant une exfiltration de donnĂ©es cĂŽtĂ© service depuis l’infrastructure d’OpenAI. L’attaque, basĂ©e sur une injection indirecte de prompt camouflĂ©e dans le HTML d’un email, a atteint un taux de rĂ©ussite de 100% avant correction et a Ă©tĂ© corrigĂ©e par OpenAI dĂ©but aoĂ»t 2025. ...

24 septembre 2025 Â· 3 min

AgentHopper : un virus d’IA exploite des prompt injections pour se propager via Git

Selon le blog Embrace The Red, un chercheur de sĂ©curitĂ© a dĂ©montrĂ© AgentHopper, un malware conceptuel ciblant des agents de codage via des injections de prompts et se propageant au travers de dĂ©pĂŽts Git. Les vulnĂ©rabilitĂ©s rĂ©fĂ©rencĂ©es ont Ă©tĂ© corrigĂ©es, et la recherche met en lumiĂšre la nĂ©cessitĂ© de contrĂŽles de sĂ©curitĂ© renforcĂ©s (protection des branches, passphrases pour clĂ©s SSH, principe du moindre privilĂšge pour les agents d’IA). AgentHopper abuse d’injections de prompt indirectes pour atteindre une exĂ©cution de code arbitraire sur plusieurs agents d’IA populaires. Le malware utilise des payloads universels conditionnels capables de dĂ©clencher des chemins d’exploitation spĂ©cifiques selon l’agent ciblĂ©, facilitant une infection multi‑plateforme Ă  partir d’un seul contenu malveillant dans le dĂ©pĂŽt. ...

31 aoĂ»t 2025 Â· 2 min

Un cadre pour analyser les incidents d’agents IA et les donnĂ©es Ă  collecter

Selon un papier de recherche acadĂ©mique (Harvard University et Centre for the Governance of AI), les auteurs proposent un cadre structurĂ© pour analyser les incidents impliquant des agents IA et dĂ©taillent quelles donnĂ©es opĂ©rationnelles doivent ĂȘtre conservĂ©es et partagĂ©es pour permettre des enquĂȘtes efficaces. ‱ Le cadre identifie trois catĂ©gories de causes d’incident: facteurs systĂšme (donnĂ©es d’entraĂźnement/feedback, mĂ©thodes d’apprentissage, prompts systĂšme, scaffolding), facteurs contextuels (dĂ©finition de la tĂąche, outils et leurs accĂšs, environnement informationnel incluant les injections de prompts) et erreurs cognitives observables de l’agent (observation, comprĂ©hension, dĂ©cision, exĂ©cution). Il s’inspire des approches « human factors » (ex. HFACS) utilisĂ©es en aviation et autres domaines critiques. ...

31 aoĂ»t 2025 Â· 3 min
Derniùre mise à jour le: 26 Oct 2025 📝