Google Cloud et Palo Alto Networks scellent un partenariat proche de 10 Md$ pour sécuriser l’IA dans le cloud

Selon Clubic, Google Cloud et Palo Alto Networks annoncent un partenariat stratégique d’un montant approchant les 10 milliards de dollars sur plusieurs années, le plus important contrat de sécurité jamais signé par Google Cloud, dans un contexte où la majorité des entreprises ont subi des attaques visant leur infrastructure IA en 2025. • Portée et ampleur du deal 🛡️☁️ L’accord, présenté comme historique, vise à sécuriser l’infrastructure cloud face aux menaces propres à l’ère de l’IA. Il s’appuie sur une collaboration entamée en 2018, déjà forte de plus de 75 intégrations et de 2 Md$ générés via le Google Cloud Marketplace. Palo Alto Networks revendique plus de 70 000 organisations clientes et renforce son ancrage dans l’écosystème Google. ...

21 décembre 2025 · 2 min

Sécurité MCP : Trend Micro révèle des serveurs exposés et des risques de supply chain, la conteneurisation comme rempart

Source : Trend Micro — Dans une publication de recherche sur la sécurité des déploiements Model Context Protocol (MCP), l’éditeur analyse plus de 22 000 dépôts et démontre comment la conteneurisation peut réduire les risques qui pèsent sur les charges de travail IA. L’étude met en évidence des lacunes critiques, notamment des serveurs MCP exposés, une authentification faible, des fuites d’identifiants, ainsi que des risques de chaîne d’approvisionnement liés à des dépôts abandonnés. Elle fournit des recommandations concrètes pour appliquer le moindre privilège, isoler correctement les conteneurs et déployer en sécurité les serveurs MCP afin de protéger les workloads IA contre l’exploitation. ...

17 septembre 2025 · 2 min

Des chercheurs dévoilent des injections de prompt indirectes via journaux compromettant les IA de SOC/SIEM

Selon Trustwave SpiderLabs (SpiderLabs Blog), des chercheurs détaillent comment des IA intégrées aux SOC et SIEM peuvent être détournées par injection de prompt indirecte à travers des journaux influencés par l’utilisateur. Les auteurs expliquent que des instructions malveillantes insérées dans des logs (ex. en-têtes HTTP, requêtes GET, tentatives d’authentification SSH) sont traitées comme des commandes légitimes par des LLM utilisés dans des chatbots et systèmes RAG pour l’analyse sécurité. Résultat: l’IA peut cacher des attaques, modifier des détails d’événements ou créer de faux incidents 🛑. ...

7 septembre 2025 · 2 min

AgentHopper : un virus d’IA exploite des prompt injections pour se propager via Git

Selon le blog Embrace The Red, un chercheur de sécurité a démontré AgentHopper, un malware conceptuel ciblant des agents de codage via des injections de prompts et se propageant au travers de dépôts Git. Les vulnérabilités référencées ont été corrigées, et la recherche met en lumière la nécessité de contrôles de sécurité renforcés (protection des branches, passphrases pour clés SSH, principe du moindre privilège pour les agents d’IA). AgentHopper abuse d’injections de prompt indirectes pour atteindre une exécution de code arbitraire sur plusieurs agents d’IA populaires. Le malware utilise des payloads universels conditionnels capables de déclencher des chemins d’exploitation spécifiques selon l’agent ciblé, facilitant une infection multi‑plateforme à partir d’un seul contenu malveillant dans le dépôt. ...

31 août 2025 · 2 min

CrowdStrike formalise un découpage de données anti‑fuite pour mieux évaluer les modèles ML en cybersécurité

Source: CrowdStrike (blog) — Dans un billet technique, CrowdStrike met en lumière un problème clé de l’IA appliquée à la cybersécurité: la fuite d’information entre ensembles d’entraînement et de test qui gonfle artificiellement les performances des modèles. Le cœur du problème présenté est la train‑test leakage lorsque des observations corrélées (événements liés au même arbre de processus, scripts similaires, ou provenant de la même machine) sont réparties aléatoirement entre train et test. Cette pratique crée des attentes de performance irréalistes et peut conduire à des échecs face à des menaces inédites en production. ...

11 août 2025 · 1 min
Dernière mise à jour le: 26 Jan 2026 📝