L’article publié par Emerging Technology Security met en lumière une vulnérabilité critique dans ChatGPT Codex, un outil d’assistance au codage d’OpenAI.

Des chercheurs en sécurité ont démontré qu’il est possible de contourner la Common Dependencies Allowlist de ChatGPT Codex, permettant à des attaquants de prendre le contrôle à distance des agents d’IA. Cette faille repose sur des techniques d’injection de commande et des permissions réseau trop larges, transformant ainsi les assistants de codage en nœuds de botnet.

L’attaque exploite l’accès au domaine azure.com inclus dans l’allowlist. Les attaquants peuvent déployer des machines virtuelles Azure avec des noms DNS personnalisés se terminant par cloudapp.azure.com, héberger une infrastructure de commande et contrôle, et utiliser une injection indirecte via des issues GitHub pour compromettre l’agent d’IA.

Le payload malveillant incite Codex à télécharger et exécuter un malware, établissant une communication C2 persistante. Cette attaque démontre des capacités de compromis système complet, y compris l’accès aux variables d’environnement, l’exécution de commandes à distance et le potentiel d’exfiltration de données.

Cet article est une publication de recherche visant à alerter sur les risques de sécurité liés à l’utilisation de ChatGPT Codex avec un accès Internet activé.


🔗 Source originale : https://embracethered.com/blog/posts/2025/chatgpt-codex-remote-control-zombai/

🖴 Archive : https://web.archive.org/web/20250802190716/https://embracethered.com/blog/posts/2025/chatgpt-codex-remote-control-zombai/