L’article publié par embracethered.com met en lumière une vulnérabilité critique dans ChatGPT, un produit d’OpenAI, qui permet à des attaquants d’exfiltrer l’historique des conversations des utilisateurs par le biais d’attaques par injection de commandes.
Les chercheurs ont découvert que l’exploitation de cette faille repose sur un contournement de la fonctionnalité de rendu ‘URL sûre’ d’OpenAI. Ce contournement permet aux acteurs malveillants d’envoyer des informations personnelles vers des serveurs tiers en utilisant des domaines comme windows.net.
L’attaque est possible lorsque les utilisateurs traitent du contenu non fiable, tel que des sites web ou des documents PDF, ce qui peut compromettre les données sensibles des conversations et les mémoires stockées. La structure du système de ChatGPT, où l’historique des conversations est accessible lors de l’injection de commandes, est exploitée dans ce contexte.
L’exploit nécessite trois composants : un domaine ‘URL sûre’, un point de terminaison API HTTP GET, et un accès aux journaux de serveur. Les attaquants peuvent ainsi lire et transmettre le ‘contenu récent des conversations’ à une infrastructure contrôlée par eux.
Cet article est une publication de recherche visant à informer sur les techniques d’exploitation et les vecteurs d’attaque associés à cette vulnérabilité.
🔗 Source originale : https://embracethered.com/blog/posts/2025/chatgpt-chat-history-data-exfiltration/