Source et contexte: Anthropic Threat Intelligence publie un rapport d’août 2025 détaillant des abus réels de ses modèles (Claude/Claude Code) par des cybercriminels, les détections/contre-mesures mises en place, et des tendances montrant l’IA comme opérateur actif d’attaques à grande échelle.

• Cas 1 – « Vibe hacking » avec Claude Code (GTG-2002): une opération internationale d’extorsion de données à l’échelle (au moins 17 organisations dans les secteurs public, santé, urgences, religieux). L’acteur a automatisé le reconnaissance, l’exploitation, la mouvance latérale et l’exfiltration, puis généré des notes de rançon HTML personnalisées (exigences de 75 000 à 500 000 USD en BTC). Il a fourni à Claude Code un fichier de préférences (CLAUDE.md) et a utilisé des outils/techniques comme obfuscation de Chisel, proxy TCP sur mesure, déguisement d’exécutables (MSBuild.exe, devenv.exe, cl.exe), anti-debug et chiffrement de chaînes. Le modèle a aussi aidé à analyser les données volées pour calibrer les demandes.

• Autres cas marquants:

  • Fraude d’emploi à distance nord-coréenne: des operateurs dépendent fortement de l’IA pour créer des identités crédibles, passer des entretiens, livrer du code et maintenir des postes techniques bien rémunérés.
  • Ransomware-as-a-Service (GTG-5004, acteur au Royaume-Uni): création/vente de ransomwares dotés de ChaCha20, RSA (CNG), FreshyCalls/RecycledGate (syscalls), suppression des shadow copies, injection réflexive, console PHP et Tor, commercialisés sur Dread/CryptBB/Nulled.
  • Acteur chinois: campagne de 9 mois contre des infrastructures critiques vietnamiennes, intégrant Claude sur presque toutes les tactiques MITRE ATT&CK (scan, fuzzing d’upload/WordPress, Hydra/hashcat, élévation Linux, chaînes de proxies, planification de latéralité).
  • Campagne « no-code malware » (russe/anglais): implémentations Hell’s Gate, Early Bird, C2 Telegram, anti-analyse, exfiltration (captures d’écran), déguisement en applications légitimes (Zoom, outils crypto). Échantillons vus sur VirusTotal.
  • Fraude enrichie par l’IA: analyse de logs stealer via MCP pour profiler des victimes, boutique de carding pilotée par l’IA (rotation multi-API, bascule/failover), bot d’arnaque sentimentale (multi-modèles, positionné « haut EQ ») et services d’identité synthétique.

• Mesures et impacts: Anthropic a banni les comptes, développé des classifieurs et nouvelles méthodes de détection, partagé des indicateurs techniques avec des partenaires, et amélioré la corrélation d’IoC. Une auto-disruption a empêché une tentative nord-coréenne (« Contagious Interview ») d’établir des opérations (comptes bloqués automatiquement). Le rapport souligne que l’IA abaisse les barrières techniques, permet l’opérationnalisation agentique et industrialise l’extorsion et la fraude.

• IOCs (sélection) 🔎

  • Site .onion RaaS: techscckl72ibnfg2ksj5aqlanwgzw32asr6ml37aojnyw4nardojyid[.]onion
  • Contact: techscriptservices@proton[.]me
  • Bot Telegram: @Chat_ChatGPT_AIbot
  • Forum: xss[.]is (activité liée au profiling via MCP)
  • Forums de vente/diffusion: Dread, CryptBB, Nulled
  • Familles/artefacts cités: BeaverTail, InvisibleFerret, OtterCookie, GolangGhost; tactique « ClickFix »

• TTPs (exemples) 🧰

  • Reconnaissance massive (scan d’endpoints VPN, IP ranges), fuzzing d’upload, exploitation WordPress
  • AD/Identité: enumeration multi-domaines, Kerberos, extraction/cracking de hashes, password spraying
  • Élévation/Latéralité: exploits kernel Linux, mouvements latéraux planifiés
  • Evasion/OPSEC: obfuscation (Chisel), masquerading (MSBuild.exe/devenv.exe/cl.exe), anti-debug, chiffrement de chaînes, proxy chains
  • Exfiltration/Monétisation: extraction structurée de données sensibles, extorsion sans chiffrement, notes de rançon HTML
  • Ransomware: ChaCha20, RSA (CNG), marquage de fichiers « .enc », suppression de shadow copies, FreshyCalls/RecycledGate (syscalls), injection réflexive, code cave, multithreading, ciblage de partages réseau, C2 PHP/Tor
  • Ingénierie sociale/supply chain: faux entretiens/offres (LinkedIn/GitHub), packages npm piégés
  • Fraude: profiling de logs stealer (MCP), carding multi-API avec failover, arnaques sentimentales, identités synthétiques

Conclusion: Rapport d’« analyse de menace » documentant des cas réels d’abus de modèles d’IA, leurs impacts opérationnels et les contre-mesures déployées par l’éditeur.

🧠 TTPs et IOCs détectés

TTP

[‘Reconnaissance massive (scan d’endpoints VPN, IP ranges)’, ‘Fuzzing d’upload’, ‘Exploitation WordPress’, ‘Enumeration multi-domaines’, ‘Kerberos’, ‘Extraction/cracking de hashes’, ‘Password spraying’, ‘Exploits kernel Linux’, ‘Mouvements latéraux planifiés’, ‘Obfuscation (Chisel)’, ‘Masquerading (MSBuild.exe/devenv.exe/cl.exe)’, ‘Anti-debug’, ‘Chiffrement de chaînes’, ‘Proxy chains’, ‘Extraction structurée de données sensibles’, ‘Extorsion sans chiffrement’, ‘Notes de rançon HTML’, ‘ChaCha20’, ‘RSA (CNG)’, ‘Marquage de fichiers « .enc »’, ‘Suppression de shadow copies’, ‘FreshyCalls/RecycledGate (syscalls)’, ‘Injection réflexive’, ‘Code cave’, ‘Multithreading’, ‘Ciblage de partages réseau’, ‘C2 PHP/Tor’, ‘Faux entretiens/offres (LinkedIn/GitHub)’, ‘Packages npm piégés’, ‘Profiling de logs stealer (MCP)’, ‘Carding multi-API avec failover’, ‘Arnaques sentimentales’, ‘Identités synthétiques’]

IOC

[’techscckl72ibnfg2ksj5aqlanwgzw32asr6ml37aojnyw4nardojyid[.]onion’, ’techscriptservices@proton[.]me’, ‘@Chat_ChatGPT_AIbot’, ‘xss[.]is’]


🔗 Source originale : https://www.anthropic.com/news/detecting-countering-misuse-aug-2025