Vulnérabilité critique dans Amp Code de Sourcegraph permet l'exécution de commandes arbitraires

Un article publié le 5 août 2025 par “Embrace The Red” met en lumière une vulnérabilité critique découverte dans Amp Code, un agent de codage IA développé par Sourcegraph. Cette faille permettait l’exécution de commandes arbitraires par le biais d’attaques par injection de prompt. La vulnérabilité exploitait la capacité d’Amp à écrire des fichiers en dehors du dossier de projet, ciblant spécifiquement le fichier de configuration de VS Code (settings.json). Deux vecteurs d’attaque ont été identifiés : la modification de la liste blanche des commandes pour inclure des commandes dangereuses comme ‘sh’ ou le joker ‘*’, et l’injection de serveurs MCP malveillants exécutant du code arbitraire lors de la configuration. ...

5 août 2025 · 2 min

Vulnérabilité critique de fuite de données dans l'éditeur de code Cursor AI

Johann Rehberger, un chercheur en sécurité, a découvert une vulnérabilité critique (CVE-2025-54132) dans l’éditeur de code Cursor AI. Cette faille permet aux attaquants de voler des informations sensibles à travers des diagrammes Mermaid malveillants. L’attaque repose sur des injections de commande qui peuvent exfiltrer des mémoires utilisateur, des clés API et d’autres données confidentielles vers des serveurs externes sans le consentement des utilisateurs. La vulnérabilité a été divulguée de manière responsable et corrigée dans la version Cursor v1.3. ...

4 août 2025 · 2 min

Vulnérabilité critique dans ChatGPT Codex : risque de contrôle à distance

L’article publié par Emerging Technology Security met en lumière une vulnérabilité critique dans ChatGPT Codex, un outil d’assistance au codage d’OpenAI. Des chercheurs en sécurité ont démontré qu’il est possible de contourner la Common Dependencies Allowlist de ChatGPT Codex, permettant à des attaquants de prendre le contrôle à distance des agents d’IA. Cette faille repose sur des techniques d’injection de commande et des permissions réseau trop larges, transformant ainsi les assistants de codage en nœuds de botnet. ...

2 août 2025 · 1 min

Vulnérabilité critique dans ChatGPT permettant l'exfiltration de données

L’article publié par embracethered.com met en lumière une vulnérabilité critique dans ChatGPT, un produit d’OpenAI, qui permet à des attaquants d’exfiltrer l’historique des conversations des utilisateurs par le biais d’attaques par injection de commandes. Les chercheurs ont découvert que l’exploitation de cette faille repose sur un contournement de la fonctionnalité de rendu ‘URL sûre’ d’OpenAI. Ce contournement permet aux acteurs malveillants d’envoyer des informations personnelles vers des serveurs tiers en utilisant des domaines comme windows.net. ...

2 août 2025 · 1 min

Les défis de sécurité liés au développement assisté par IA

L’article publié par Emerging Technology Security aborde les implications de sécurité du développement logiciel assisté par l’IA, en particulier le ‘vibe coding’ avec des modèles de langage (LLMs). Feross Aboukhadijeh, PDG de Socket, et Joel de la Garza, partenaire chez a16z, discutent des défis de sécurité posés par ces outils qui, bien qu’ils augmentent la productivité des développeurs, introduisent des risques tels que les dépendances tierces compromises et des pratiques de révision de code inadéquates. ...

26 juillet 2025 · 2 min

Sécurisation des modèles de langage dans les applications

L’article publié par Emerging Technology Security fournit des conseils sur la manière de bien délimiter les évaluations de sécurité des applications lorsque des modèles de langage (LLMs) sont intégrés. Il souligne que l’intégration de composants d’intelligence artificielle élargit les surfaces d’attaque en créant des relations transitives entre les utilisateurs et les systèmes backend, ce qui signifie que tout ce qu’un modèle de langage peut accéder doit être considéré comme accessible aux utilisateurs. ...

18 juillet 2025 · 2 min
Dernière mise à jour le: 3 Sep 2025 📝