Selon Wiz, dans son rapport « The State of AI in the Cloud 2025 », l’adoption de l’IA dans les environnements cloud continue d’augmenter, avec une stabilisation des services managés et une montée du self-hosted, mais la sécurité et la gouvernance peinent à suivre.
📈 Adoption et tendances
- 85% des organisations utilisent une forme d’IA (managée ou auto-hébergée).
- Les services managés passent de 70% à 74% des environnements.
- Le self-hosted progresse fortement (42% → 75%), notamment via des intégrations dans des logiciels tiers.
- OpenAI/Azure OpenAI SDKs sont utilisés par 67% des environnements; top outils: Pytorch (50%), ONNX Runtime (46%), Hugging Face (45%), Tiktoken (43%).
🚀 DeepSeek en forte croissance
- Lancement de DeepSeek-R1: ~130 000 téléchargements sur Hugging Face en janvier.
- Environ 7% des organisations qui s’auto-hébergent utilisent des modèles DeepSeek (dont 4% R1).
- Le rapport souligne l’attrait pour le coût et la vitesse d’innovation, mais rappelle un incident d’exposition de données lié au service.
🔒 Vulnérabilités et expositions mises en évidence par Wiz
- DeepLeak (DeepSeek): base de données exposée contenant des informations sensibles (historique d’usage, >1 million de lignes de logs) et permettant un contrôle complet des opérations de la base.
- CVE-2024-0132 (NVIDIA): vulnérabilité critique affectant les conteneurs utilisant des GPUs NVIDIA, impactant >35% des environnements cloud et présentant un risque élevé pour les charges IA.
- SAPwned (SAP AI Core): vulnérabilités permettant à un attaquant de prendre le contrôle du service et d’accéder à des données client, y compris artefacts IA privés et clés cloud.
- Probllama (Ollama): vulnérabilité de Remote Code Execution (RCE), facile à exploiter, dans ce projet d’infrastructure IA open source.
- Études avec Hugging Face et Replicate: en l’absence d’une isolation adéquate, des modèles malveillants peuvent menacer les systèmes IA et les données client.
🧩 Écosystème mixte open/closed source
- 8 des 10 technologies les plus populaires sont associées à l’open source (ex: LangChain, Hugging Face), tandis que des fournisseurs closed source (OpenAI, Anthropic) publient aussi des outils open source (ex: Tiktoken).
- Côté modèles auto-hébergés: BERT domine (49% → 74%), Llama progresse (18% → 35%). Mistral entre dans le top 10; Qwen2 apparaît comme nouvel entrant notable.
🧪 IOCs et TTPs
- IOCs: non communiqués dans le rapport extrait.
- TTPs évoquées: RCE (Ollama/Probllama); prise de contrôle de service et accès à données sensibles (SAP AI Core/SAPwned); exposition de données et contrôle de base de données (DeepSeek/DeepLeak); risques liés à l’isolation insuffisante de modèles (Hugging Face, Replicate).
Ce document est une publication de recherche visant à dresser l’état des lieux de l’adoption de l’IA dans le cloud et à mettre en lumière des risques de sécurité concrets observés par l’équipe Wiz.
🧠 TTPs et IOCs détectés
TTP
Remote Code Execution (RCE) via Probllama; prise de contrôle de service et accès à données sensibles via SAP AI Core/SAPwned; exposition de données et contrôle de base de données via DeepSeek/DeepLeak; risques liés à l’isolation insuffisante de modèles via Hugging Face et Replicate.
IOC
Non communiqués dans le rapport extrait.
🔗 Source originale : https://www.wiz.io/reports/the-state-of-ai-in-the-cloud-2025