Selon Wiz, dans son rapport « The State of AI in the Cloud 2025 », l’adoption de l’IA dans les environnements cloud continue d’augmenter, avec une stabilisation des services managés et une montée du self-hosted, mais la sécurité et la gouvernance peinent à suivre.

📈 Adoption et tendances

  • 85% des organisations utilisent une forme d’IA (managée ou auto-hébergée).
  • Les services managés passent de 70% à 74% des environnements.
  • Le self-hosted progresse fortement (42% → 75%), notamment via des intégrations dans des logiciels tiers.
  • OpenAI/Azure OpenAI SDKs sont utilisés par 67% des environnements; top outils: Pytorch (50%), ONNX Runtime (46%), Hugging Face (45%), Tiktoken (43%).

🚀 DeepSeek en forte croissance

  • Lancement de DeepSeek-R1: ~130 000 téléchargements sur Hugging Face en janvier.
  • Environ 7% des organisations qui s’auto-hébergent utilisent des modèles DeepSeek (dont 4% R1).
  • Le rapport souligne l’attrait pour le coût et la vitesse d’innovation, mais rappelle un incident d’exposition de données lié au service.

🔒 Vulnérabilités et expositions mises en évidence par Wiz

  • DeepLeak (DeepSeek): base de données exposée contenant des informations sensibles (historique d’usage, >1 million de lignes de logs) et permettant un contrôle complet des opérations de la base.
  • CVE-2024-0132 (NVIDIA): vulnérabilité critique affectant les conteneurs utilisant des GPUs NVIDIA, impactant >35% des environnements cloud et présentant un risque élevé pour les charges IA.
  • SAPwned (SAP AI Core): vulnérabilités permettant à un attaquant de prendre le contrôle du service et d’accéder à des données client, y compris artefacts IA privés et clés cloud.
  • Probllama (Ollama): vulnérabilité de Remote Code Execution (RCE), facile à exploiter, dans ce projet d’infrastructure IA open source.
  • Études avec Hugging Face et Replicate: en l’absence d’une isolation adéquate, des modèles malveillants peuvent menacer les systèmes IA et les données client.

🧩 Écosystème mixte open/closed source

  • 8 des 10 technologies les plus populaires sont associées à l’open source (ex: LangChain, Hugging Face), tandis que des fournisseurs closed source (OpenAI, Anthropic) publient aussi des outils open source (ex: Tiktoken).
  • Côté modèles auto-hébergés: BERT domine (49% → 74%), Llama progresse (18% → 35%). Mistral entre dans le top 10; Qwen2 apparaît comme nouvel entrant notable.

🧪 IOCs et TTPs

  • IOCs: non communiqués dans le rapport extrait.
  • TTPs évoquées: RCE (Ollama/Probllama); prise de contrôle de service et accès à données sensibles (SAP AI Core/SAPwned); exposition de données et contrôle de base de données (DeepSeek/DeepLeak); risques liés à l’isolation insuffisante de modèles (Hugging Face, Replicate).

Ce document est une publication de recherche visant à dresser l’état des lieux de l’adoption de l’IA dans le cloud et à mettre en lumière des risques de sécurité concrets observés par l’équipe Wiz.

🧠 TTPs et IOCs détectés

TTP

Remote Code Execution (RCE) via Probllama; prise de contrôle de service et accès à données sensibles via SAP AI Core/SAPwned; exposition de données et contrôle de base de données via DeepSeek/DeepLeak; risques liés à l’isolation insuffisante de modèles via Hugging Face et Replicate.

IOC

Non communiqués dans le rapport extrait.


🔗 Source originale : https://www.wiz.io/reports/the-state-of-ai-in-the-cloud-2025