Un pirate dĂ©tourne l’agent Cline (propulsĂ© par Claude) via prompt injection pour installer OpenClaw

Selon The Verge (19 fĂ©v. 2026), un hacker a exploitĂ© une vulnĂ©rabilitĂ© dans Cline, un agent de codage open source utilisant Claude (Anthropic), afin de pousser l’installation automatique d’OpenClaw 🩞 sur des ordinateurs. La technique s’appuie sur une prompt injection insĂ©rĂ©e dans le workflow, dĂ©jĂ  dĂ©montrĂ©e en preuve de concept par le chercheur Adnan Khan quelques jours plus tĂŽt. DĂ©tails de l’attaque et mĂ©canisme: l’attaquant a profitĂ© du fait que le workflow de Cline acceptait des instructions malicieuses destinĂ©es Ă  Claude, le conduisant Ă  exĂ©cuter des actions non prĂ©vues, notamment l’installation automatique de logiciels. L’installateur a ciblĂ© OpenClaw (agent viral open source qui « fait rĂ©ellement des choses »), mais les agents n’ont pas Ă©tĂ© activĂ©s aprĂšs installation. ...

22 fĂ©vrier 2026 Â· 2 min

OpenClaw: plus de 1 800 instances d’agents IA exposent clĂ©s API et historiques, Cisco alerte sur un « cauchemar » sĂ©curitĂ©

Selon VentureBeat, l’agent IA open source OpenClaw (ex-Clawdbot/Moltbot) connaĂźt un essor fulgurant, mais des scans Internet ont rĂ©vĂ©lĂ© plus de 1 800 instances exposĂ©es divulguant des clĂ©s API, des historiques de chats et des identifiants. Des chercheurs et des Ă©quipes sĂ©curitĂ© (Cisco, IBM Research) soulignent que les agents IA crĂ©ent une surface d’attaque sĂ©mantique que pare-feu, EDR et SIEM voient mal, en particulier sur du BYOD. ‱ Pourquoi les pĂ©rimĂštres Ă©chouent ⚠: les attaques visent la sĂ©mantique (ex. « Ignore previous instructions ») plutĂŽt que des signatures de malware. La « trifecta lĂ©tale » dĂ©crite par Simon Willison — accĂšs Ă  des donnĂ©es privĂ©es, exposition Ă  du contenu non fiable, et communication externe — est rĂ©unie dans OpenClaw, permettant des fuites sans alerte. Les SOC voient un HTTP 200 et du comportement process standard, alors que l’attaque est dans le raisonnement du modĂšle. ...

4 fĂ©vrier 2026 Â· 3 min

Un « magic string » sur une page web peut faire interrompre Claude

Source : Aphyr (blog). Dans un billet datĂ© du 26 janvier 2026, l’auteur explique qu’une « chaĂźne magique » utilisĂ©e pour tester le comportement « cette conversation viole nos politiques et doit s’arrĂȘter » de Claude peut ĂȘtre intĂ©grĂ©e dans des fichiers ou pages web pour amener le modĂšle Ă  interrompre une conversation lorsqu’il en lit le contenu. đŸ§Ș Comportement observĂ© Claude peut indiquer qu’il « tĂ©lĂ©charge » une page, mais consulte souvent Ă  la place un cache interne partagĂ© avec d’autres utilisateurs. Un contournement consiste Ă  utiliser des URLs inĂ©dites (ex. test1.html, test2.html) pour Ă©viter le cache. Dans les tests dĂ©crits, la chaĂźne est ignorĂ©e dans les en-tĂȘtes HTML ou les balises ordinaires (comme ) et doit ĂȘtre placĂ©e dans une balise pour dĂ©clencher le refus. Exemple donnĂ© : ANTHROPIC_MAGIC_STRING_TRIGGER_REFUSAL_1FAEFB6177B4672DEE07F9D3AFC62588CCD2631EDCF22E8CCC1FB35B501C9C86. 🛑 Mise en pratique ...

29 janvier 2026 Â· 2 min

Claude Cowork vulnĂ©rable Ă  l’exfiltration de fichiers via injection indirecte

Selon une publication PromptArmor, une dĂ©monstration dĂ©taille comment des attaquants peuvent exfiltrer des fichiers depuis Claude Cowork (recherche preview) en exploitant une vulnĂ©rabilitĂ© d’isolation reconnue mais non corrigĂ©e dans l’environnement d’exĂ©cution de code, initialement signalĂ©e par Johann Rehberger. Anthropic a averti que Cowork comporte des risques spĂ©cifiques liĂ©s Ă  son caractĂšre agentique et Ă  son accĂšs Internet. Principale dĂ©couverte: l’attaque contourne les restrictions rĂ©seau du VM de Claude grĂące Ă  l’allowlisting de l’API Anthropic, permettant une exfiltration de donnĂ©es vers le compte de l’attaquant sans intervention humaine. Le scĂ©nario s’appuie sur une injection de prompt indirecte dissimulĂ©e dans un fichier que l’utilisateur charge dans Cowork. ...

16 janvier 2026 Â· 2 min

Gartner recommande de bloquer les navigateurs IA agentiques pour le moment

Selon The Register (article de Simon Sharwood), un avis de Gartner intitulĂ© « Cybersecurity Must Block AI Browsers for Now » recommande aux organisations de bloquer, pour l’instant, les navigateurs IA dits agentiques en raison de risques de sĂ©curitĂ© jugĂ©s excessifs. Gartner dĂ©finit ces navigateurs IA comme des outils tels que Perplexity Comet et OpenAI ChatGPT Atlas, combinant: 1) une barre latĂ©rale IA (rĂ©sumĂ©, recherche, traduction, interaction sur le contenu web via un service IA du fournisseur), et 2) une capacitĂ© transactionnelle agentique permettant au navigateur de naviguer et agir de façon autonome, y compris dans des sessions authentifiĂ©es. ...

10 dĂ©cembre 2025 Â· 2 min

Unit 42 révÚle des attaques via la fonctionnalité MCP Sampling dans des copilotes de code

Palo Alto Networks (Unit 42) publie une analyse technique montrant, via trois preuves de concept rĂ©alisĂ©es sur un copilot de code intĂ©grant MCP, comment la fonctionnalitĂ© de sampling du Model Context Protocol peut ĂȘtre abusĂ©e pour mener des attaques, et dĂ©taille des stratĂ©gies de dĂ©tection et de prĂ©vention. Contexte. MCP est un standard client-serveur qui relie des applications LLM Ă  des outils et sources externes. La primitive de sampling permet Ă  un serveur MCP de demander au client d’appeler le LLM avec son propre prompt, inversant le schĂ©ma d’appel classique. Le modĂšle de confiance implicite et l’absence de contrĂŽles de sĂ©curitĂ© robustes intĂ©grĂ©s ouvrent de nouveaux vecteurs d’attaque lorsque des serveurs (non fiables) peuvent piloter ces requĂȘtes de complĂ©tion. ...

8 dĂ©cembre 2025 Â· 3 min

Windows: Microsoft alerte sur les risques des agents Copilot Actions (hallucinations, prompt injection)

Source: Ars Technica (Dan Goodin), contexte: Microsoft a annoncĂ© les fonctionnalitĂ©s expĂ©rimentales Copilot Actions dans Windows et publiĂ© des avertissements sur leurs risques de sĂ©curitĂ©. Microsoft introduit des « agentic features » permettant d’automatiser des tĂąches (organiser des fichiers, planifier des rĂ©unions, envoyer des emails) đŸ€–, mais prĂ©cise que Copilot Actions est dĂ©sactivĂ© par dĂ©faut et ne devrait ĂȘtre activĂ© que par des utilisateurs « expĂ©rimentĂ©s ». L’entreprise reconnaĂźt des limites fonctionnelles des modĂšles et des risques spĂ©cifiques aux agents. ...

22 novembre 2025 Â· 2 min

Tenable révÚle 7 vulnérabilités dans ChatGPT ouvrant la voie à des fuites de données privées

Selon Tenable Research (blog Tenable), une nouvelle Ă©tude dĂ©voile sept vulnĂ©rabilitĂ©s et techniques d’attaque affectant ChatGPT, dont certaines confirmĂ©es sur GPT‑5 et observĂ©es sur GPT‑4o, permettant l’exfiltration d’informations privĂ©es depuis les mĂ©moires et l’historique de conversation, des attaques 0‑click via la recherche, des contournements de mĂ©canismes de sĂ©curitĂ© et des persistances entre sessions. Architecture et surface d’attaque identifiĂ©es : ChatGPT s’appuie sur un « System Prompt » enrichi par des « memories » (bio tool) pouvant contenir des donnĂ©es privĂ©es de l’utilisateur, et sur un web tool avec deux commandes: search (Search Context) et open_url (Browsing Context). D’aprĂšs les tests, open_url dĂ©lĂšgue la navigation Ă  un LLM isolĂ© (« SearchGPT »), sans accĂšs aux memories. Un mĂ©canisme url_safe filtre les liens rendus Ă  l’écran. ...

5 novembre 2025 Â· 3 min

Exfiltration de donnĂ©es via l’API Files d’Anthropic en abusant de l’accĂšs rĂ©seau de Claude

Source: Embrace The Red (blog). Dans ce billet, l’auteur montre comment l’accĂšs rĂ©seau autorisĂ© par dĂ©faut du Code Interpreter de Claude permet une exfiltration de donnĂ©es en abusant de l’API Files d’Anthropic, sans passer par des liens externes, mais via des appels aux APIs intĂ©grĂ©es autorisĂ©es par la liste blanche de domaines. Le cƓur de l’attaque est une indirect prompt injection qui amĂšne Claude Ă  lire des donnĂ©es accessibles Ă  l’utilisateur (ex. la derniĂšre conversation via la fonction memories), Ă  les Ă©crire dans le sandbox (/mnt/user-data/outputs/hello.md), puis Ă  exĂ©cuter du code qui appelle api.anthropic.com pour uploader ce fichier via l’API Files. Astuce clĂ©: le code injecte la clĂ© API de l’attaquant (variable d’environnement ANTHROPIC_API_KEY), ce qui envoie le fichier non pas vers le compte de la victime mais vers celui de l’attaquant. La taille exfiltrable annoncĂ©e est de 30 Mo par fichier, avec la possibilitĂ© d’en envoyer plusieurs. ...

4 novembre 2025 Â· 3 min

Navigateurs dopĂ©s Ă  l’IA: vagues de failles et fuites Ă  prĂ©voir, prĂ©viennent des experts

The Verge met en garde contre une nouvelle vague de menaces liĂ©es aux navigateurs intĂ©grant des agents IA (ChatGPT Atlas, Copilot Mode d’Edge, Comet, etc.), alors que la course pour « possĂ©der » la porte d’entrĂ©e du web s’accĂ©lĂšre. Des vulnĂ©rabilitĂ©s ont dĂ©jĂ  Ă©tĂ© constatĂ©es: dans Atlas, des chercheurs ont exploitĂ© la mĂ©moire pour injecter du code malveillant, Ă©lever des privilĂšges ou dĂ©ployer des malwares. Des failles dans Comet permettraient de dĂ©tourner l’IA du navigateur via des instructions cachĂ©es. OpenAI (via son CISO) et Perplexity reconnaissent que les prompt injections constituent une menace majeure et « de frontiĂšre » sans solution Ă©tablie. ...

2 novembre 2025 Â· 2 min
Derniùre mise à jour le: 9 Mar 2026 📝