Failles XSS dans le chatbot IA de Lenovo permettent vol de cookies et exécution de scripts

Source: Cybernews (18.08.2025). Des chercheurs de Cybernews ont dĂ©couvert des vulnĂ©rabilitĂ©s critiques dans l’implĂ©mentation du chatbot IA « Lena » de Lenovo (propulsĂ© par GPT‑4), permettant des attaques de type Cross‑Site Scripting (XSS) dĂ©clenchĂ©es par un simple prompt et pouvant mener au vol de cookies de session, Ă  l’exĂ©cution de scripts non autorisĂ©s sur des machines de l’entreprise et potentiellement Ă  une compromission de la plateforme de support client. ⚠ Points clĂ©s: les failles proviennent d’une sanitisation insuffisante des entrĂ©es utilisateur et des sorties du chatbot, de l’absence de vĂ©rification par le serveur web du contenu produit par le chatbot, de l’exĂ©cution de code non vĂ©rifiĂ© et du chargement de ressources web arbitraires. Cybernews a divulguĂ© de maniĂšre responsable; Lenovo a accusĂ© rĂ©ception et a protĂ©gĂ© ses systĂšmes. ...

21 aoĂ»t 2025 Â· 2 min

Prompt injection: principal risque pour les LLM, la défense en profondeur reste indispensable

Selon GuidePoint Security (blog), la prompt injection reste le risque de sĂ©curitĂ© n°1 pour les modĂšles de langage (LLM), car ceux-ci ne distinguent pas de façon fiable les instructions systĂšme des entrĂ©es utilisateur dans une mĂȘme fenĂȘtre de contexte. Sur le plan technique, les attaques tirent parti du traitement token-based dans un contexte unifiĂ© oĂč instructions systĂšme et requĂȘtes utilisateur sont traitĂ©es de maniĂšre Ă©quivalente. Cette faiblesse structurelle permet de dĂ©tourner le comportement de l’IA. ...

14 aoĂ»t 2025 Â· 2 min

Faille critique dans Claude Code : exfiltration via DNS aprĂšs injection indirecte de prompts

Selon une publication de recherche rĂ©fĂ©rencĂ©e sur embracethered.com, une vulnĂ©rabilitĂ© Ă  haute sĂ©vĂ©ritĂ© a Ă©tĂ© identifiĂ©e et corrigĂ©e dans Claude Code d’Anthropic, exposant les utilisateurs Ă  un dĂ©tournement de l’assistant et Ă  l’exfiltration de donnĂ©es. — L’essentiel: l’attaque repose sur une injection indirecte de prompts capable de forcer Claude Code Ă  exfiltrer des informations sensibles depuis les machines des dĂ©veloppeurs. Elle abuse d’une allowlist de commandes bash (notamment ping, nslookup, dig, host) ne nĂ©cessitant pas d’approbation utilisateur et encode les donnĂ©es volĂ©es dans des requĂȘtes DNS vers des serveurs contrĂŽlĂ©s par l’attaquant. Anthropic a reçu la divulgation de maniĂšre responsable et a corrigĂ© la vulnĂ©rabilitĂ©. 💡🔒 ...

11 aoĂ»t 2025 Â· 2 min

Failles de prompt injection dans OpenHands : exfiltration zĂ©ro‑clic de tokens GitHub via rendu d’images

Source: Embrace The Red (blog) — Des chercheurs en sĂ©curitĂ© dĂ©crivent des vulnĂ©rabilitĂ©s critiques de prompt injection dans l’agent OpenHands qui permettent une exfiltration de donnĂ©es zĂ©ro‑clic en abusant du rendu d’images pour extraire des tokens GitHub et d’autres secrets. 🚹 Points clĂ©s Type d’attaque: prompt injection avec la « Lethal Trifecta » (Markdown + rendu d’images + exfiltration). Impact: exfiltration de GITHUB_TOKEN et d’autres donnĂ©es sensibles depuis l’environnement conteneurisĂ© d’OpenHands. État du correctif: vulnĂ©rabilitĂ© non corrigĂ©e malgrĂ© 148 jours de divulgation responsable. 🔧 DĂ©tails techniques ...

10 aoĂ»t 2025 Â· 2 min

OpenHands vulnĂ©rable Ă  l’exĂ©cution de code via prompt injection : l’agent peut ĂȘtre dĂ©tournĂ© en 'ZombAI'

Selon Embrace The Red, des chercheurs ont dĂ©montrĂ© une vulnĂ©rabilitĂ© critique dans l’agent IA OpenHands permettant, via prompt injection, une exĂ©cution de code Ă  distance (RCE) et la prise de contrĂŽle persistante de l’agent en un « ZombAI » 🚹. Sur le plan technique, l’attaque insĂšre des instructions malveillantes dans des contenus web que l’agent traite. Lorsqu’OpenHands visite un site contrĂŽlĂ© par l’attaquant, il suit ces instructions pour tĂ©lĂ©charger un malware (payload similaire Ă  ceux observĂ©s dans des exploits visant Anthropic Claude), l’exĂ©cuter localement, puis Ă©tablir une connexion Ă  un serveur de C2 đŸ€–. ...

10 aoĂ»t 2025 Â· 1 min

Vulnérabilité critique dans Amp Code de Sourcegraph permet l'exécution de commandes arbitraires

Un article publiĂ© le 5 aoĂ»t 2025 par “Embrace The Red” met en lumiĂšre une vulnĂ©rabilitĂ© critique dĂ©couverte dans Amp Code, un agent de codage IA dĂ©veloppĂ© par Sourcegraph. Cette faille permettait l’exĂ©cution de commandes arbitraires par le biais d’attaques par injection de prompt. La vulnĂ©rabilitĂ© exploitait la capacitĂ© d’Amp Ă  Ă©crire des fichiers en dehors du dossier de projet, ciblant spĂ©cifiquement le fichier de configuration de VS Code (settings.json). Deux vecteurs d’attaque ont Ă©tĂ© identifiĂ©s : la modification de la liste blanche des commandes pour inclure des commandes dangereuses comme ‘sh’ ou le joker ‘*’, et l’injection de serveurs MCP malveillants exĂ©cutant du code arbitraire lors de la configuration. ...

5 aoĂ»t 2025 Â· 2 min

Vulnérabilité critique de fuite de données dans l'éditeur de code Cursor AI

Johann Rehberger, un chercheur en sĂ©curitĂ©, a dĂ©couvert une vulnĂ©rabilitĂ© critique (CVE-2025-54132) dans l’éditeur de code Cursor AI. Cette faille permet aux attaquants de voler des informations sensibles Ă  travers des diagrammes Mermaid malveillants. L’attaque repose sur des injections de commande qui peuvent exfiltrer des mĂ©moires utilisateur, des clĂ©s API et d’autres donnĂ©es confidentielles vers des serveurs externes sans le consentement des utilisateurs. La vulnĂ©rabilitĂ© a Ă©tĂ© divulguĂ©e de maniĂšre responsable et corrigĂ©e dans la version Cursor v1.3. ...

4 aoĂ»t 2025 Â· 2 min

Vulnérabilité critique dans ChatGPT Codex : risque de contrÎle à distance

L’article publiĂ© par Emerging Technology Security met en lumiĂšre une vulnĂ©rabilitĂ© critique dans ChatGPT Codex, un outil d’assistance au codage d’OpenAI. Des chercheurs en sĂ©curitĂ© ont dĂ©montrĂ© qu’il est possible de contourner la Common Dependencies Allowlist de ChatGPT Codex, permettant Ă  des attaquants de prendre le contrĂŽle Ă  distance des agents d’IA. Cette faille repose sur des techniques d’injection de commande et des permissions rĂ©seau trop larges, transformant ainsi les assistants de codage en nƓuds de botnet. ...

2 aoĂ»t 2025 Â· 1 min

Vulnérabilité critique dans ChatGPT permettant l'exfiltration de données

L’article publiĂ© par embracethered.com met en lumiĂšre une vulnĂ©rabilitĂ© critique dans ChatGPT, un produit d’OpenAI, qui permet Ă  des attaquants d’exfiltrer l’historique des conversations des utilisateurs par le biais d’attaques par injection de commandes. Les chercheurs ont dĂ©couvert que l’exploitation de cette faille repose sur un contournement de la fonctionnalitĂ© de rendu ‘URL sĂ»re’ d’OpenAI. Ce contournement permet aux acteurs malveillants d’envoyer des informations personnelles vers des serveurs tiers en utilisant des domaines comme windows.net. ...

2 aoĂ»t 2025 Â· 1 min

Les défis de sécurité liés au développement assisté par IA

L’article publiĂ© par Emerging Technology Security aborde les implications de sĂ©curitĂ© du dĂ©veloppement logiciel assistĂ© par l’IA, en particulier le ‘vibe coding’ avec des modĂšles de langage (LLMs). Feross Aboukhadijeh, PDG de Socket, et Joel de la Garza, partenaire chez a16z, discutent des dĂ©fis de sĂ©curitĂ© posĂ©s par ces outils qui, bien qu’ils augmentent la productivitĂ© des dĂ©veloppeurs, introduisent des risques tels que les dĂ©pendances tierces compromises et des pratiques de rĂ©vision de code inadĂ©quates. ...

26 juillet 2025 Â· 2 min
Derniùre mise à jour le: 26 Jan 2026 📝