Pentest IA open source : exfiltration silencieuse de données et risques de conformité via APIs LLM
Selon Horizon3.ai, des frameworks de pentest IA open source (notamment Cyber-AutoAgent et Villager) crĂ©ent des risques de conformitĂ© majeurs en transmettant des donnĂ©es sensibles de tests dâintrusion vers des fournisseurs LLM externes (ex. OpenAI, Anthropic). Le problĂšme principal nâest pas lâentraĂźnement des modĂšles, mais lâexfiltration immĂ©diate et non autorisĂ©e de donnĂ©es vers des tiers non approuvĂ©s, contournant DLP et SIEM, et violant des exigences PCI, HIPAA, CJIS et FedRAMP. CĂŽtĂ© technique, ces outils enchaĂźnent reconnaissance et exploitation en envoyant la sortie des commandes aux endpoints LLM via des appels API, gĂ©nĂ©rant une fuite silencieuse au travers dâun trafic HTTPS lĂ©gitime. Ils utilisent souvent des clĂ©s API publiques, ne disposent pas de contrĂŽles de configuration pour restreindre les flux, embarquent des bibliothĂšques de tĂ©lĂ©mĂ©trie tierces et nâoffrent pas de pistes dâaudit. ...