Source: ANSSI (TLP:CLEAR), synthèse publiée le 4 février 2026. Contexte: état des lieux de la menace en 2025 sur l’usage dual des IA génératives et les risques pesant sur les systèmes d’IA.

🔎 Constat général

  • L’ANSSI n’a pas connaissance à ce jour de cyberattaques menées contre des acteurs français à l’aide de l’IA, ni de systèmes capables d’automatiser entièrement une attaque. Toutefois, l’IA générative sert déjà de facilitateur (accélération, volume, diversité, efficacité), surtout sur des environnements peu sécurisés.

🧰 Usages observés de l’IA par les attaquants le long de la chaîne d’attaque

  • Ingénierie sociale et reconnaissance: usage présumé de Google Gemini par des acteurs liés à l’Iran pour la reconnaissance; Charcoal Typhoon (lié à la Chine) aurait généré du contenu d’hameçonnage; Lazarus (RPDC) aurait créé de faux profils d’entreprises/employés; observation de sites web générés par IA hébergeant des charges ou servant à la caractérisation; recours à des deepfakes à bas coût pour l’usurpation d’identité.
  • Développement de codes malveillants: TA547 aurait utilisé un script PowerShell généré par LLM; prototype de rançongiciel PromptLock utilisant des prompts dynamiques pour exfiltration/chiffrement; détection par Google d’une famille de malwares dont Promptflux, polymorphique via réécriture périodique du code par l’API Gemini.
  • Exploitation post-exfiltration: des services d’IA générative auraient été utilisés par des opérateurs russes pour analyser massivement des données volées et identifier des informations d’intérêt.
  • Limites actuelles: la recherche de vulnérabilités jour-zéro par IA reste difficile et dépend de compétences humaines; pas de cas avéré d’exploitation de 0‑day découverte par IA. Des avancées côté défense (ex. BigSleep, XBOW) montrent cependant des capacités croissantes d’analyse de code et de scan à grande échelle.

🧪 Détournement et offre « IA malveillante »

  • Contournement des garde-fous par ingénierie de prompt et apparition de services de jailbreak-as-a-service (ex. EscapeGPT, LoopGPT).
  • Offre cybercriminelle de LLM « débridés »: WormGPT, FraudGPT, EvilGPT, variantes plus récentes comme WormGPT4 entraînées sur des corpus malveillants (code, modèles d’hameçonnage).

⚠️ Ciblage des systèmes d’IA et nouveaux vecteurs

  • Empoisonnement des données d’entraînement: risque d’altération/désinformation; analyses (UK AI Security Institute, Anthropic) suggèrent qu’un petit nombre d’échantillons peut suffire à empoisonner un LLM.
  • Chaîne d’approvisionnement IA: modèles open source malveillants (ex. modèles Hugging Face avec backdoor); exploitation possible d’agents MCP mal sécurisés; slopsquatting exploitant les hallucinations de LLM pour injecter des paquets malveillants.
  • Surface d’attaque accrue avec intégration IA dans des environnements sensibles: risques d’atteinte à la confidentialité et à l’intégrité des SI interconnectés.
  • Comptes IA compromis et fuites: plus de 100 000 comptes ChatGPT compromis via infostealers (2022–2023) et fuites involontaires (ex. cas Samsung en 2023) par insertion de données sensibles dans l’IA.

IOC et TTP

  • IOCs: non fournis dans la synthèse.
  • TTPs (exemples):
    • Génération de phishing et de contenus de social engineering multilingues
    • Reconnaissance automatisée et caractérisation des cibles via sites IA
    • Deepfakes pour usurpation d’identité
    • Génération de scripts/malwares par LLM; polymorphisme assisté par IA
    • Jailbreak/contournement des garde-fous, LLM « débridés »
    • Empoisonnement des données d’entraînement
    • Supply chain IA: modèles malveillants, MCP exposés, slopsquatting
    • Vol d’identifiants (infostealers) et abus de comptes IA

Cette publication est une analyse de menace TLP:CLEAR visant à synthétiser l’état de la menace en 2025 autour de l’IA générative et des risques associés au ciblage des systèmes d’IA.

🧠 TTPs et IOCs détectés

TTP

Génération de phishing et de contenus de social engineering multilingues; Reconnaissance automatisée et caractérisation des cibles via sites IA; Deepfakes pour usurpation d’identité; Génération de scripts/malwares par LLM; Polymorphisme assisté par IA; Jailbreak/contournement des garde-fous, LLM « débridés »; Empoisonnement des données d’entraînement; Supply chain IA: modèles malveillants, MCP exposés, slopsquatting; Vol d’identifiants (infostealers) et abus de comptes IA

IOC

non fournis dans la synthèse


🔗 Source originale : https://cyber.gouv.fr/actualites/synthese-de-la-menace-sur-lia-generative-face-aux-attaques-informatiques/