OpenClaw : failles critiques, risques d’agent IA et gestion du Shadow AI

Source: : kaspersky.fr — article signĂ© par Stan Kaminsky (27 fĂ©v. 2026). L’auteur analyse les menaces posĂ©es par OpenClaw (ex‑Clawdbot/Moltbot), un agent d’IA open source local se branchant Ă  WhatsApp, Telegram, Signal, Discord et Slack, dotĂ© d’un accĂšs Ă©tendu (fichiers, email, calendrier, navigateur, shell) et orchestrĂ© via une passerelle. Devenu viral dĂšs janvier 2026, le projet a connu une vague de problĂšmes de sĂ©curitĂ© (failles critiques, « skills » malveillantes, fuites de secrets via Moltbook), un conflit de marque avec Anthropic et mĂȘme le dĂ©tournement de son compte X pour des arnaques crypto. Le tout recoupe les risques de l’OWASP Top 10 for Agentic Applications. ...

2 mars 2026 Â· 4 min

Browser Security Report 2025 : le navigateur, nouvel épicentre des risques IA, identité et fuites de données

Selon LayerX Security (Browser Security Report 2025), le navigateur est devenu l’endpoint le plus critique et le moins gouvernĂ© de l’entreprise, au croisement de l’IA, des identitĂ©s et des donnĂ©es, avec une surface d’attaque largement invisible pour les piles DLP/EDR/SSE. 🧠 Croissance IA et dĂ©ficit de gouvernance 45% des employĂ©s utilisent des outils GenAI, dont 92% du trafic sur ChatGPT. PrĂšs de 90% des sessions se dĂ©roulent hors contrĂŽle IT. 77% des employĂ©s copient/collent des donnĂ©es dans des prompts, 82% via des comptes personnels. 40% des fichiers chargĂ©s dans des apps GenAI contiennent des donnĂ©es PII/PCI. La GenAI reprĂ©sente 32% des mouvements de donnĂ©es corporate → personnels, devenant le canal d’exfiltration n°1 dans le navigateur. đŸ§© Extensions : chaĂźne d’approvisionnement logicielle non gĂ©rĂ©e ...

12 novembre 2025 Â· 3 min

Shadow AI Agents : détection et gouvernance des identités non humaines en entreprise

Selon GuidePoint Security, dans le cadre du Cybersecurity Awareness Month, un risque Ă©mergent touche les environnements d’entreprise : les « Shadow AI Agents » — des systĂšmes IA autonomes crĂ©ant des identitĂ©s non humaines (NHI) avec des accĂšs larges via API, comptes de service et tokens, souvent sans supervision. L’article dĂ©taille comment de simples chatbots Ă©voluent en agents autonomes et pourquoi ils posent des risques de sĂ©curitĂ© (comportements imprĂ©visibles, sur‑privilĂšges, exposition via tokens et comptes de service). Il explique aussi comment des attaquants peuvent les exploiter et crĂ©er des angles morts d’observabilitĂ©. ...

8 octobre 2025 Â· 2 min
Derniùre mise à jour le: 31 Mar 2026 📝