Les éditeurs d'IA refusent d'assumer la responsabilité des failles de sécurité dans leurs produits

đŸ—žïž Contexte Article d’opinion publiĂ© le 19 avril 2026 par Jessica Lyons sur The Register, portant sur la posture des grands Ă©diteurs d’IA face aux vulnĂ©rabilitĂ©s dĂ©couvertes dans leurs produits. 🔍 Faits principaux Des chercheurs ont dĂ©montrĂ© que trois agents IA populaires intĂ©grĂ©s Ă  GitHub Actions peuvent ĂȘtre dĂ©tournĂ©s pour voler des clĂ©s API et des jetons d’accĂšs : Anthropic Claude Code Security Review Google Gemini CLI Action Microsoft GitHub Copilot Les trois Ă©diteurs ont versĂ© des bug bounties : ...

19 avril 2026 Â· 2 min

Claude Mythos Preview : un LLM capable de découvrir et exploiter des zero-days autonomement

🧠 Contexte PubliĂ© le 7 avril 2026 sur le blog de recherche d’Anthropic, cet article technique prĂ©sente les capacitĂ©s en cybersĂ©curitĂ© de Claude Mythos Preview, un nouveau modĂšle de langage gĂ©nĂ©ral. En rĂ©ponse Ă  ces capacitĂ©s, Anthropic annonce le lancement de Project Glasswing, un effort coordonnĂ© pour utiliser Mythos Preview Ă  des fins dĂ©fensives sur les logiciels critiques. 🔍 CapacitĂ©s offensives documentĂ©es Mythos Preview dĂ©montre des capacitĂ©s autonomes de dĂ©couverte et d’exploitation de vulnĂ©rabilitĂ©s : ...

8 avril 2026 Â· 4 min

State of Secrets Sprawl 2026 : 29M secrets exposés sur GitHub, hausse de 81% des fuites IA

📊 Contexte PubliĂ© le 24 mars 2026 par GitGuardian, le rapport annuel State of Secrets Sprawl 2026 (5Ăšme Ă©dition) analyse la prolifĂ©ration des secrets (credentials, API keys, tokens) dans les dĂ©pĂŽts publics et privĂ©s, les outils collaboratifs et les environnements locaux. Il s’appuie sur l’analyse de commits GitHub publics, de datasets de machines compromises et de configurations d’infrastructure IA. 🔑 Chiffres clĂ©s sur GitHub public 28,65 millions de nouveaux secrets hardcodĂ©s ajoutĂ©s aux commits GitHub publics en 2025 (+34% YoY, plus forte hausse jamais enregistrĂ©e) 1,94 milliard de commits publics en 2025 (+43% YoY) Base de dĂ©veloppeurs actifs en hausse de 33% đŸ€– Explosion des fuites liĂ©es Ă  l’IA 1 275 105 secrets de services IA dĂ©tectĂ©s en 2025, soit +81% YoY 113 000 clĂ©s API DeepSeek exposĂ©es citĂ©es comme exemple 8 des 10 dĂ©tecteurs Ă  la croissance la plus rapide sont liĂ©s Ă  des services IA L’infrastructure LLM (orchestration, RAG, vector storage) fuite 5× plus vite que les fournisseurs de modĂšles core Les commits assistĂ©s par Claude Code affichent un taux de fuite de 3,2% vs 1,5% en baseline ⚙ Fuites dans les configurations MCP 24 008 secrets uniques exposĂ©s dans des fichiers de configuration MCP sur GitHub public 2 117 credentials valides uniques identifiĂ©s (8,8% des findings MCP) Les guides de documentation officiels encouragent souvent des patterns non sĂ©curisĂ©s (API keys en dur dans les fichiers de config) 🏱 DĂ©pĂŽts internes et outils collaboratifs Les dĂ©pĂŽts internes sont 6× plus susceptibles de contenir des secrets hardcodĂ©s que les dĂ©pĂŽts publics 28% des incidents proviennent entiĂšrement hors des dĂ©pĂŽts (Slack, Jira, Confluence) Les fuites hors code sont 13 points de pourcentage plus susceptibles d’ĂȘtre classĂ©es critiques đŸ’» Machines dĂ©veloppeurs et CI/CD Analyse du dataset Shai-Hulud 2 : 6 943 machines compromises, 294 842 occurrences de secrets, 33 185 secrets uniques 59% des machines compromises Ă©taient des runners CI/CD (pas des postes personnels) Les agents IA avec accĂšs local (terminaux, variables d’environnement, credential stores) Ă©largissent la surface d’attaque ⏳ Lacunes de remĂ©diation 64% des secrets valides de 2022 sont encore actifs et exploitables en janvier 2026 46% des secrets critiques sont manquĂ©s par une priorisation basĂ©e uniquement sur la validation automatique 📌 Type d’article Rapport de recherche annuel Ă  visĂ©e CTI et sensibilisation, publiĂ© par GitGuardian pour quantifier l’ampleur de la prolifĂ©ration des secrets dans les environnements de dĂ©veloppement modernes, avec focus sur l’impact de l’IA gĂ©nĂ©rative. ...

24 mars 2026 Â· 3 min

Failles de prompt injection dans OpenHands : exfiltration zĂ©ro‑clic de tokens GitHub via rendu d’images

Source: Embrace The Red (blog) — Des chercheurs en sĂ©curitĂ© dĂ©crivent des vulnĂ©rabilitĂ©s critiques de prompt injection dans l’agent OpenHands qui permettent une exfiltration de donnĂ©es zĂ©ro‑clic en abusant du rendu d’images pour extraire des tokens GitHub et d’autres secrets. 🚹 Points clĂ©s Type d’attaque: prompt injection avec la « Lethal Trifecta » (Markdown + rendu d’images + exfiltration). Impact: exfiltration de GITHUB_TOKEN et d’autres donnĂ©es sensibles depuis l’environnement conteneurisĂ© d’OpenHands. État du correctif: vulnĂ©rabilitĂ© non corrigĂ©e malgrĂ© 148 jours de divulgation responsable. 🔧 DĂ©tails techniques ...

10 aoĂ»t 2025 Â· 2 min

Vulnérabilité critique dans Amp Code de Sourcegraph permet l'exécution de commandes arbitraires

Un article publiĂ© le 5 aoĂ»t 2025 par “Embrace The Red” met en lumiĂšre une vulnĂ©rabilitĂ© critique dĂ©couverte dans Amp Code, un agent de codage IA dĂ©veloppĂ© par Sourcegraph. Cette faille permettait l’exĂ©cution de commandes arbitraires par le biais d’attaques par injection de prompt. La vulnĂ©rabilitĂ© exploitait la capacitĂ© d’Amp Ă  Ă©crire des fichiers en dehors du dossier de projet, ciblant spĂ©cifiquement le fichier de configuration de VS Code (settings.json). Deux vecteurs d’attaque ont Ă©tĂ© identifiĂ©s : la modification de la liste blanche des commandes pour inclure des commandes dangereuses comme ‘sh’ ou le joker ‘*’, et l’injection de serveurs MCP malveillants exĂ©cutant du code arbitraire lors de la configuration. ...

5 aoĂ»t 2025 Â· 2 min

Vulnérabilité critique de fuite de données dans l'éditeur de code Cursor AI

Johann Rehberger, un chercheur en sĂ©curitĂ©, a dĂ©couvert une vulnĂ©rabilitĂ© critique (CVE-2025-54132) dans l’éditeur de code Cursor AI. Cette faille permet aux attaquants de voler des informations sensibles Ă  travers des diagrammes Mermaid malveillants. L’attaque repose sur des injections de commande qui peuvent exfiltrer des mĂ©moires utilisateur, des clĂ©s API et d’autres donnĂ©es confidentielles vers des serveurs externes sans le consentement des utilisateurs. La vulnĂ©rabilitĂ© a Ă©tĂ© divulguĂ©e de maniĂšre responsable et corrigĂ©e dans la version Cursor v1.3. ...

4 aoĂ»t 2025 Â· 2 min

Vulnérabilité de contournement des contrÎles d'accÚs dans le serveur MCP d'Anthropic

L’article publiĂ© sur le blog ‘Embrace the Red’ le 3 aoĂ»t 2025, met en lumiĂšre une vulnĂ©rabilitĂ© dĂ©couverte dans le serveur de fichiers MCP d’Anthropic, qui permettait aux systĂšmes d’IA tels que Claude Desktop de contourner les contrĂŽles d’accĂšs aux rĂ©pertoires. La faille provenait d’une validation incorrecte des chemins d’accĂšs dans la fonction validatePath du fichier index.ts, utilisant une comparaison .startsWith pour vĂ©rifier les chemins de fichiers par rapport Ă  une liste de rĂ©pertoires autorisĂ©s. Cette mĂ©thode Ă©chouait Ă  garantir que les chemins reprĂ©sentaient de vĂ©ritables rĂ©pertoires, permettant ainsi l’accĂšs Ă  tout fichier ou rĂ©pertoire partageant le mĂȘme prĂ©fixe que les rĂ©pertoires autorisĂ©s. ...

3 aoĂ»t 2025 Â· 1 min

Vulnérabilité critique dans ChatGPT Codex : risque de contrÎle à distance

L’article publiĂ© par Emerging Technology Security met en lumiĂšre une vulnĂ©rabilitĂ© critique dans ChatGPT Codex, un outil d’assistance au codage d’OpenAI. Des chercheurs en sĂ©curitĂ© ont dĂ©montrĂ© qu’il est possible de contourner la Common Dependencies Allowlist de ChatGPT Codex, permettant Ă  des attaquants de prendre le contrĂŽle Ă  distance des agents d’IA. Cette faille repose sur des techniques d’injection de commande et des permissions rĂ©seau trop larges, transformant ainsi les assistants de codage en nƓuds de botnet. ...

2 aoĂ»t 2025 Â· 1 min

Vulnérabilité critique dans ChatGPT permettant l'exfiltration de données

L’article publiĂ© par embracethered.com met en lumiĂšre une vulnĂ©rabilitĂ© critique dans ChatGPT, un produit d’OpenAI, qui permet Ă  des attaquants d’exfiltrer l’historique des conversations des utilisateurs par le biais d’attaques par injection de commandes. Les chercheurs ont dĂ©couvert que l’exploitation de cette faille repose sur un contournement de la fonctionnalitĂ© de rendu ‘URL sĂ»re’ d’OpenAI. Ce contournement permet aux acteurs malveillants d’envoyer des informations personnelles vers des serveurs tiers en utilisant des domaines comme windows.net. ...

2 aoĂ»t 2025 Â· 1 min

Avancées en sécurité de l'IA présentées à la conférence SciPy 2025

La confĂ©rence SciPy 2025, telle que rapportĂ©e par Emerging Technology Security, a mis en lumiĂšre des avancĂ©es significatives dans le domaine de la sĂ©curitĂ© de l’IA utilisant Python. Les discussions ont portĂ© sur des thĂšmes clĂ©s tels que l’IA explicable pour la conformitĂ© et la transparence, l’utilisation de l’analyse de graphes pour la dĂ©tection des menaces, les pratiques sĂ©curisĂ©es de dĂ©ploiement des LLM (modĂšles de langage de grande taille), et la vĂ©rification des modĂšles via OpenSSF Model Signing. ...

26 juillet 2025 Â· 2 min
Derniùre mise à jour le: 27 avril 2026 📝