Failles de prompt injection dans OpenHands : exfiltration zĂ©ro‑clic de tokens GitHub via rendu d’images

Source: Embrace The Red (blog) — Des chercheurs en sĂ©curitĂ© dĂ©crivent des vulnĂ©rabilitĂ©s critiques de prompt injection dans l’agent OpenHands qui permettent une exfiltration de donnĂ©es zĂ©ro‑clic en abusant du rendu d’images pour extraire des tokens GitHub et d’autres secrets. 🚹 Points clĂ©s Type d’attaque: prompt injection avec la « Lethal Trifecta » (Markdown + rendu d’images + exfiltration). Impact: exfiltration de GITHUB_TOKEN et d’autres donnĂ©es sensibles depuis l’environnement conteneurisĂ© d’OpenHands. État du correctif: vulnĂ©rabilitĂ© non corrigĂ©e malgrĂ© 148 jours de divulgation responsable. 🔧 DĂ©tails techniques ...

10 aoĂ»t 2025 Â· 2 min

Vulnérabilité critique dans Amp Code de Sourcegraph permet l'exécution de commandes arbitraires

Un article publiĂ© le 5 aoĂ»t 2025 par “Embrace The Red” met en lumiĂšre une vulnĂ©rabilitĂ© critique dĂ©couverte dans Amp Code, un agent de codage IA dĂ©veloppĂ© par Sourcegraph. Cette faille permettait l’exĂ©cution de commandes arbitraires par le biais d’attaques par injection de prompt. La vulnĂ©rabilitĂ© exploitait la capacitĂ© d’Amp Ă  Ă©crire des fichiers en dehors du dossier de projet, ciblant spĂ©cifiquement le fichier de configuration de VS Code (settings.json). Deux vecteurs d’attaque ont Ă©tĂ© identifiĂ©s : la modification de la liste blanche des commandes pour inclure des commandes dangereuses comme ‘sh’ ou le joker ‘*’, et l’injection de serveurs MCP malveillants exĂ©cutant du code arbitraire lors de la configuration. ...

5 aoĂ»t 2025 Â· 2 min

Vulnérabilité critique de fuite de données dans l'éditeur de code Cursor AI

Johann Rehberger, un chercheur en sĂ©curitĂ©, a dĂ©couvert une vulnĂ©rabilitĂ© critique (CVE-2025-54132) dans l’éditeur de code Cursor AI. Cette faille permet aux attaquants de voler des informations sensibles Ă  travers des diagrammes Mermaid malveillants. L’attaque repose sur des injections de commande qui peuvent exfiltrer des mĂ©moires utilisateur, des clĂ©s API et d’autres donnĂ©es confidentielles vers des serveurs externes sans le consentement des utilisateurs. La vulnĂ©rabilitĂ© a Ă©tĂ© divulguĂ©e de maniĂšre responsable et corrigĂ©e dans la version Cursor v1.3. ...

4 aoĂ»t 2025 Â· 2 min

Vulnérabilité de contournement des contrÎles d'accÚs dans le serveur MCP d'Anthropic

L’article publiĂ© sur le blog ‘Embrace the Red’ le 3 aoĂ»t 2025, met en lumiĂšre une vulnĂ©rabilitĂ© dĂ©couverte dans le serveur de fichiers MCP d’Anthropic, qui permettait aux systĂšmes d’IA tels que Claude Desktop de contourner les contrĂŽles d’accĂšs aux rĂ©pertoires. La faille provenait d’une validation incorrecte des chemins d’accĂšs dans la fonction validatePath du fichier index.ts, utilisant une comparaison .startsWith pour vĂ©rifier les chemins de fichiers par rapport Ă  une liste de rĂ©pertoires autorisĂ©s. Cette mĂ©thode Ă©chouait Ă  garantir que les chemins reprĂ©sentaient de vĂ©ritables rĂ©pertoires, permettant ainsi l’accĂšs Ă  tout fichier ou rĂ©pertoire partageant le mĂȘme prĂ©fixe que les rĂ©pertoires autorisĂ©s. ...

3 aoĂ»t 2025 Â· 1 min

Vulnérabilité critique dans ChatGPT Codex : risque de contrÎle à distance

L’article publiĂ© par Emerging Technology Security met en lumiĂšre une vulnĂ©rabilitĂ© critique dans ChatGPT Codex, un outil d’assistance au codage d’OpenAI. Des chercheurs en sĂ©curitĂ© ont dĂ©montrĂ© qu’il est possible de contourner la Common Dependencies Allowlist de ChatGPT Codex, permettant Ă  des attaquants de prendre le contrĂŽle Ă  distance des agents d’IA. Cette faille repose sur des techniques d’injection de commande et des permissions rĂ©seau trop larges, transformant ainsi les assistants de codage en nƓuds de botnet. ...

2 aoĂ»t 2025 Â· 1 min

Vulnérabilité critique dans ChatGPT permettant l'exfiltration de données

L’article publiĂ© par embracethered.com met en lumiĂšre une vulnĂ©rabilitĂ© critique dans ChatGPT, un produit d’OpenAI, qui permet Ă  des attaquants d’exfiltrer l’historique des conversations des utilisateurs par le biais d’attaques par injection de commandes. Les chercheurs ont dĂ©couvert que l’exploitation de cette faille repose sur un contournement de la fonctionnalitĂ© de rendu ‘URL sĂ»re’ d’OpenAI. Ce contournement permet aux acteurs malveillants d’envoyer des informations personnelles vers des serveurs tiers en utilisant des domaines comme windows.net. ...

2 aoĂ»t 2025 Â· 1 min

Avancées en sécurité de l'IA présentées à la conférence SciPy 2025

La confĂ©rence SciPy 2025, telle que rapportĂ©e par Emerging Technology Security, a mis en lumiĂšre des avancĂ©es significatives dans le domaine de la sĂ©curitĂ© de l’IA utilisant Python. Les discussions ont portĂ© sur des thĂšmes clĂ©s tels que l’IA explicable pour la conformitĂ© et la transparence, l’utilisation de l’analyse de graphes pour la dĂ©tection des menaces, les pratiques sĂ©curisĂ©es de dĂ©ploiement des LLM (modĂšles de langage de grande taille), et la vĂ©rification des modĂšles via OpenSSF Model Signing. ...

26 juillet 2025 Â· 2 min

Les défis de sécurité liés au développement assisté par IA

L’article publiĂ© par Emerging Technology Security aborde les implications de sĂ©curitĂ© du dĂ©veloppement logiciel assistĂ© par l’IA, en particulier le ‘vibe coding’ avec des modĂšles de langage (LLMs). Feross Aboukhadijeh, PDG de Socket, et Joel de la Garza, partenaire chez a16z, discutent des dĂ©fis de sĂ©curitĂ© posĂ©s par ces outils qui, bien qu’ils augmentent la productivitĂ© des dĂ©veloppeurs, introduisent des risques tels que les dĂ©pendances tierces compromises et des pratiques de rĂ©vision de code inadĂ©quates. ...

26 juillet 2025 Â· 2 min

Sécurisation des modÚles de langage dans les applications

L’article publiĂ© par Emerging Technology Security fournit des conseils sur la maniĂšre de bien dĂ©limiter les Ă©valuations de sĂ©curitĂ© des applications lorsque des modĂšles de langage (LLMs) sont intĂ©grĂ©s. Il souligne que l’intĂ©gration de composants d’intelligence artificielle Ă©largit les surfaces d’attaque en crĂ©ant des relations transitives entre les utilisateurs et les systĂšmes backend, ce qui signifie que tout ce qu’un modĂšle de langage peut accĂ©der doit ĂȘtre considĂ©rĂ© comme accessible aux utilisateurs. ...

18 juillet 2025 Â· 2 min
Derniùre mise à jour le: 3 Sep 2025 📝