Gartner recommande de bloquer les navigateurs IA agentiques pour le moment

Selon The Register (article de Simon Sharwood), un avis de Gartner intitulĂ© « Cybersecurity Must Block AI Browsers for Now » recommande aux organisations de bloquer, pour l’instant, les navigateurs IA dits agentiques en raison de risques de sĂ©curitĂ© jugĂ©s excessifs. Gartner dĂ©finit ces navigateurs IA comme des outils tels que Perplexity Comet et OpenAI ChatGPT Atlas, combinant: 1) une barre latĂ©rale IA (rĂ©sumĂ©, recherche, traduction, interaction sur le contenu web via un service IA du fournisseur), et 2) une capacitĂ© transactionnelle agentique permettant au navigateur de naviguer et agir de façon autonome, y compris dans des sessions authentifiĂ©es. ...

10 dĂ©cembre 2025 Â· 2 min

Unit 42 révÚle des attaques via la fonctionnalité MCP Sampling dans des copilotes de code

Palo Alto Networks (Unit 42) publie une analyse technique montrant, via trois preuves de concept rĂ©alisĂ©es sur un copilot de code intĂ©grant MCP, comment la fonctionnalitĂ© de sampling du Model Context Protocol peut ĂȘtre abusĂ©e pour mener des attaques, et dĂ©taille des stratĂ©gies de dĂ©tection et de prĂ©vention. Contexte. MCP est un standard client-serveur qui relie des applications LLM Ă  des outils et sources externes. La primitive de sampling permet Ă  un serveur MCP de demander au client d’appeler le LLM avec son propre prompt, inversant le schĂ©ma d’appel classique. Le modĂšle de confiance implicite et l’absence de contrĂŽles de sĂ©curitĂ© robustes intĂ©grĂ©s ouvrent de nouveaux vecteurs d’attaque lorsque des serveurs (non fiables) peuvent piloter ces requĂȘtes de complĂ©tion. ...

8 dĂ©cembre 2025 Â· 3 min

Windows: Microsoft alerte sur les risques des agents Copilot Actions (hallucinations, prompt injection)

Source: Ars Technica (Dan Goodin), contexte: Microsoft a annoncĂ© les fonctionnalitĂ©s expĂ©rimentales Copilot Actions dans Windows et publiĂ© des avertissements sur leurs risques de sĂ©curitĂ©. Microsoft introduit des « agentic features » permettant d’automatiser des tĂąches (organiser des fichiers, planifier des rĂ©unions, envoyer des emails) đŸ€–, mais prĂ©cise que Copilot Actions est dĂ©sactivĂ© par dĂ©faut et ne devrait ĂȘtre activĂ© que par des utilisateurs « expĂ©rimentĂ©s ». L’entreprise reconnaĂźt des limites fonctionnelles des modĂšles et des risques spĂ©cifiques aux agents. ...

22 novembre 2025 Â· 2 min

Tenable révÚle 7 vulnérabilités dans ChatGPT ouvrant la voie à des fuites de données privées

Selon Tenable Research (blog Tenable), une nouvelle Ă©tude dĂ©voile sept vulnĂ©rabilitĂ©s et techniques d’attaque affectant ChatGPT, dont certaines confirmĂ©es sur GPT‑5 et observĂ©es sur GPT‑4o, permettant l’exfiltration d’informations privĂ©es depuis les mĂ©moires et l’historique de conversation, des attaques 0‑click via la recherche, des contournements de mĂ©canismes de sĂ©curitĂ© et des persistances entre sessions. Architecture et surface d’attaque identifiĂ©es : ChatGPT s’appuie sur un « System Prompt » enrichi par des « memories » (bio tool) pouvant contenir des donnĂ©es privĂ©es de l’utilisateur, et sur un web tool avec deux commandes: search (Search Context) et open_url (Browsing Context). D’aprĂšs les tests, open_url dĂ©lĂšgue la navigation Ă  un LLM isolĂ© (« SearchGPT »), sans accĂšs aux memories. Un mĂ©canisme url_safe filtre les liens rendus Ă  l’écran. ...

5 novembre 2025 Â· 3 min

Exfiltration de donnĂ©es via l’API Files d’Anthropic en abusant de l’accĂšs rĂ©seau de Claude

Source: Embrace The Red (blog). Dans ce billet, l’auteur montre comment l’accĂšs rĂ©seau autorisĂ© par dĂ©faut du Code Interpreter de Claude permet une exfiltration de donnĂ©es en abusant de l’API Files d’Anthropic, sans passer par des liens externes, mais via des appels aux APIs intĂ©grĂ©es autorisĂ©es par la liste blanche de domaines. Le cƓur de l’attaque est une indirect prompt injection qui amĂšne Claude Ă  lire des donnĂ©es accessibles Ă  l’utilisateur (ex. la derniĂšre conversation via la fonction memories), Ă  les Ă©crire dans le sandbox (/mnt/user-data/outputs/hello.md), puis Ă  exĂ©cuter du code qui appelle api.anthropic.com pour uploader ce fichier via l’API Files. Astuce clĂ©: le code injecte la clĂ© API de l’attaquant (variable d’environnement ANTHROPIC_API_KEY), ce qui envoie le fichier non pas vers le compte de la victime mais vers celui de l’attaquant. La taille exfiltrable annoncĂ©e est de 30 Mo par fichier, avec la possibilitĂ© d’en envoyer plusieurs. ...

4 novembre 2025 Â· 3 min

Navigateurs dopĂ©s Ă  l’IA: vagues de failles et fuites Ă  prĂ©voir, prĂ©viennent des experts

The Verge met en garde contre une nouvelle vague de menaces liĂ©es aux navigateurs intĂ©grant des agents IA (ChatGPT Atlas, Copilot Mode d’Edge, Comet, etc.), alors que la course pour « possĂ©der » la porte d’entrĂ©e du web s’accĂ©lĂšre. Des vulnĂ©rabilitĂ©s ont dĂ©jĂ  Ă©tĂ© constatĂ©es: dans Atlas, des chercheurs ont exploitĂ© la mĂ©moire pour injecter du code malveillant, Ă©lever des privilĂšges ou dĂ©ployer des malwares. Des failles dans Comet permettraient de dĂ©tourner l’IA du navigateur via des instructions cachĂ©es. OpenAI (via son CISO) et Perplexity reconnaissent que les prompt injections constituent une menace majeure et « de frontiĂšre » sans solution Ă©tablie. ...

2 novembre 2025 Â· 2 min

Brave dĂ©taille des failles de prompt injection via captures d’écran dans des navigateurs IA (dont Perplexity Comet)

Source: Brave (brave.com) — Dans le second billet d’une sĂ©rie sur les dĂ©fis de sĂ©curitĂ© et de confidentialitĂ© des navigateurs « agentiques », Shivan Kaul Sahib et Artem Chaikin publient des rĂ©sultats de recherche montrant que l’« indirect prompt injection » est un problĂšme systĂ©mique dans les navigateurs IA. Ils dĂ©crivent des vecteurs d’attaque additionnels testĂ©s sur diffĂ©rentes implĂ©mentations et rappellent leur divulgation responsable aux Ă©diteurs concernĂ©s. Les chercheurs expliquent que des navigateurs IA capables d’agir au nom de l’utilisateur restent vulnĂ©rables Ă  des prompt injections via captures d’écran et contenus cachĂ©s, exposant les sessions authentifiĂ©es (banque, email, etc.). Une simple action comme rĂ©sumer un post Reddit pourrait permettre Ă  un attaquant de voler de l’argent ou des donnĂ©es privĂ©es. ...

24 octobre 2025 Â· 2 min

CamoLeak : faille critique dans GitHub Copilot Chat permettant l’exfiltration de code privĂ© via contournement CSP

Selon une publication d’Omer Mayraz, une vulnĂ©rabilitĂ© critique baptisĂ©e « CamoLeak » affectait GitHub Copilot Chat, permettant l’exfiltration silencieuse de secrets et de code depuis des dĂ©pĂŽts privĂ©s et le contrĂŽle des rĂ©ponses de Copilot. GitHub a corrigĂ© le problĂšme en dĂ©sactivant complĂštement le rendu des images dans Copilot Chat au 14 aoĂ»t 2025. ‱ DĂ©couverte et impact. En juin 2025, l’auteur identifie une faille (CVSS 9.6) dans GitHub Copilot Chat qui, via prompt injection Ă  distance, permet d’orienter les rĂ©ponses (incluant la suggestion de code malveillant ou de liens) et d’exfiltrer des donnĂ©es de dĂ©pĂŽts privĂ©s auxquels l’utilisateur victime a accĂšs. Le comportement tient au fait que Copilot agit avec les mĂȘmes permissions que l’utilisateur. ...

13 octobre 2025 Â· 3 min

NVIDIA dĂ©montre des attaques par injection contre des agents IA de dĂ©veloppement menant Ă  l’exĂ©cution de code

Source: Emerging Technology Security, s’appuyant sur un billet technique de NVIDIA et une prĂ©sentation Ă  Black Hat USA 2025. Les chercheurs de NVIDIA dĂ©crivent comment des outils de codage assistĂ©s par IA et des Computer Use Agents (CUA) de niveau 3 d’autonomie peuvent ĂȘtre exploitĂ©s via des watering hole attacks et de l’indirect prompt injection pour obtenir une exĂ©cution de code Ă  distance (RCE) sur les postes dĂ©veloppeurs. L’attaque abuse de l’« assistive alignment » et de l’autonomie croissante de ces agents, en insĂ©rant des charges malveillantes dans des sources non fiables comme des issues et pull requests GitHub pour pousser les agents Ă  tĂ©lĂ©charger et exĂ©cuter du code malveillant. ...

10 octobre 2025 Â· 2 min

Zenity Labs dĂ©voile des faiblesses structurelles dans les guardrails d’OpenAI AgentKit

Source: Zenity Labs — Dans une publication de recherche, Zenity Labs analyse en profondeur les guardrails d’OpenAI AgentKit et met en Ă©vidence des faiblesses fondamentales communes : des contrĂŽles « souples » basĂ©s sur des modĂšles probabilistes Ă©valuant d’autres modĂšles, crĂ©ant des dĂ©pendances circulaires exploitables par des attaquants. Points clĂ©s mis en avant: DĂ©tection de PII: Ă©chec face aux formats non standard (ex. ‘SNN’ au lieu de ‘SSN’) et aux variations de casse. DĂ©tection d’hallucinations: s’appuie sur l’auto‑évaluation par LLM (score de confiance d’un modĂšle sur un autre), approche jugĂ©e fragile pour la vĂ©rification factuelle. Filtres de modĂ©ration: contournables via substitution de caractĂšres, encodage et obfuscation (ex. ‘k🧹ill’). DĂ©tection de jailbreak: inefficace contre les attaques multi‑tours, payloads intĂ©grĂ©s ou prompts dĂ©guisĂ©s. RĂ©sumĂ© technique: ...

10 octobre 2025 Â· 2 min
Derniùre mise à jour le: 11 Dec 2025 📝