Vulnérabilité critique dans ChatGPT Codex : risque de contrôle à distance

L’article publié par Emerging Technology Security met en lumière une vulnérabilité critique dans ChatGPT Codex, un outil d’assistance au codage d’OpenAI. Des chercheurs en sécurité ont démontré qu’il est possible de contourner la Common Dependencies Allowlist de ChatGPT Codex, permettant à des attaquants de prendre le contrôle à distance des agents d’IA. Cette faille repose sur des techniques d’injection de commande et des permissions réseau trop larges, transformant ainsi les assistants de codage en nœuds de botnet. ...

2 août 2025 · 1 min

Vulnérabilité critique dans ChatGPT permettant l'exfiltration de données

L’article publié par embracethered.com met en lumière une vulnérabilité critique dans ChatGPT, un produit d’OpenAI, qui permet à des attaquants d’exfiltrer l’historique des conversations des utilisateurs par le biais d’attaques par injection de commandes. Les chercheurs ont découvert que l’exploitation de cette faille repose sur un contournement de la fonctionnalité de rendu ‘URL sûre’ d’OpenAI. Ce contournement permet aux acteurs malveillants d’envoyer des informations personnelles vers des serveurs tiers en utilisant des domaines comme windows.net. ...

2 août 2025 · 1 min

Les défis de sécurité liés au développement assisté par IA

L’article publié par Emerging Technology Security aborde les implications de sécurité du développement logiciel assisté par l’IA, en particulier le ‘vibe coding’ avec des modèles de langage (LLMs). Feross Aboukhadijeh, PDG de Socket, et Joel de la Garza, partenaire chez a16z, discutent des défis de sécurité posés par ces outils qui, bien qu’ils augmentent la productivité des développeurs, introduisent des risques tels que les dépendances tierces compromises et des pratiques de révision de code inadéquates. ...

26 juillet 2025 · 2 min

Sécurisation des modèles de langage dans les applications

L’article publié par Emerging Technology Security fournit des conseils sur la manière de bien délimiter les évaluations de sécurité des applications lorsque des modèles de langage (LLMs) sont intégrés. Il souligne que l’intégration de composants d’intelligence artificielle élargit les surfaces d’attaque en créant des relations transitives entre les utilisateurs et les systèmes backend, ce qui signifie que tout ce qu’un modèle de langage peut accéder doit être considéré comme accessible aux utilisateurs. ...

18 juillet 2025 · 2 min
Dernière mise à jour le: 26 Oct 2025 📝