Fuite du code source de Claude Code : analyse des mécanismes de sécurité internes d'Anthropic

🔍 Contexte Publié le 31 mars 2026 sur le blog lr0.org, cet article analyse le code source TypeScript de Claude Code (outil CLI d’Anthropic), accidentellement exposé via un fichier source map non obfusqué (cli.js.map). Le dépôt miroir a été publié sur GitHub à l’adresse https://github.com/chatgptprojects/claude-code. Le code comprend 1 897 fichiers pour environ 132 000 lignes de code. 🚨 Nature de la fuite Anthropic a accidentellement inclus un fichier source map (cli.js.map) dans une version publique de Claude Code, exposant l’intégralité du code TypeScript non obfusqué. Ce type de fuite révèle la logique interne, les commandes cachées, les flags expérimentaux et les mécanismes de sécurité. ...

4 février 2026 · 2 min

OpenAI lance Aardvark, un agent de recherche de vulnérabilités alimenté par GPT‑5 (bêta privée)

Source: OpenAI (openai.com) — Annonce du 30 octobre 2025. OpenAI présente « Aardvark », un agent de recherche en sécurité alimenté par GPT‑5, destiné à aider les équipes à découvrir et corriger des vulnérabilités à grande échelle, actuellement en bêta privée. Aardvark opère comme un chercheur en sécurité: il lit et comprend le code, raisonne avec un LLM, écrit et exécute des tests, et utilise des outils pour identifier des failles. Contrairement aux approches classiques (fuzzing, SCA), il s’appuie sur le raisonnement et l’orchestration d’outils pour repérer des bugs et proposer des correctifs. Il s’intègre aux workflows existants (GitHub, OpenAI Codex) et fournit des explications annotées pour revue humaine. ...

2 novembre 2025 · 2 min
Dernière mise à jour le: 11 mai 2026 📝