Source: ANSSI (TLP:CLEAR), synthèse publiée le 4 février 2026. Contexte: état des lieux de la menace en 2025 sur l’usage dual des IA génératives et les risques pesant sur les systèmes d’IA.
🔎 Constat général
- L’ANSSI n’a pas connaissance à ce jour de cyberattaques menées contre des acteurs français à l’aide de l’IA, ni de systèmes capables d’automatiser entièrement une attaque. Toutefois, l’IA générative sert déjà de facilitateur (accélération, volume, diversité, efficacité), surtout sur des environnements peu sécurisés.
🧰 Usages observés de l’IA par les attaquants le long de la chaîne d’attaque
- Ingénierie sociale et reconnaissance: usage présumé de Google Gemini par des acteurs liés à l’Iran pour la reconnaissance; Charcoal Typhoon (lié à la Chine) aurait généré du contenu d’hameçonnage; Lazarus (RPDC) aurait créé de faux profils d’entreprises/employés; observation de sites web générés par IA hébergeant des charges ou servant à la caractérisation; recours à des deepfakes à bas coût pour l’usurpation d’identité.
- Développement de codes malveillants: TA547 aurait utilisé un script PowerShell généré par LLM; prototype de rançongiciel PromptLock utilisant des prompts dynamiques pour exfiltration/chiffrement; détection par Google d’une famille de malwares dont Promptflux, polymorphique via réécriture périodique du code par l’API Gemini.
- Exploitation post-exfiltration: des services d’IA générative auraient été utilisés par des opérateurs russes pour analyser massivement des données volées et identifier des informations d’intérêt.
- Limites actuelles: la recherche de vulnérabilités jour-zéro par IA reste difficile et dépend de compétences humaines; pas de cas avéré d’exploitation de 0‑day découverte par IA. Des avancées côté défense (ex. BigSleep, XBOW) montrent cependant des capacités croissantes d’analyse de code et de scan à grande échelle.
🧪 Détournement et offre « IA malveillante »
- Contournement des garde-fous par ingénierie de prompt et apparition de services de jailbreak-as-a-service (ex. EscapeGPT, LoopGPT).
- Offre cybercriminelle de LLM « débridés »: WormGPT, FraudGPT, EvilGPT, variantes plus récentes comme WormGPT4 entraînées sur des corpus malveillants (code, modèles d’hameçonnage).
⚠️ Ciblage des systèmes d’IA et nouveaux vecteurs
- Empoisonnement des données d’entraînement: risque d’altération/désinformation; analyses (UK AI Security Institute, Anthropic) suggèrent qu’un petit nombre d’échantillons peut suffire à empoisonner un LLM.
- Chaîne d’approvisionnement IA: modèles open source malveillants (ex. modèles Hugging Face avec backdoor); exploitation possible d’agents MCP mal sécurisés; slopsquatting exploitant les hallucinations de LLM pour injecter des paquets malveillants.
- Surface d’attaque accrue avec intégration IA dans des environnements sensibles: risques d’atteinte à la confidentialité et à l’intégrité des SI interconnectés.
- Comptes IA compromis et fuites: plus de 100 000 comptes ChatGPT compromis via infostealers (2022–2023) et fuites involontaires (ex. cas Samsung en 2023) par insertion de données sensibles dans l’IA.
IOC et TTP
- IOCs: non fournis dans la synthèse.
- TTPs (exemples):
- Génération de phishing et de contenus de social engineering multilingues
- Reconnaissance automatisée et caractérisation des cibles via sites IA
- Deepfakes pour usurpation d’identité
- Génération de scripts/malwares par LLM; polymorphisme assisté par IA
- Jailbreak/contournement des garde-fous, LLM « débridés »
- Empoisonnement des données d’entraînement
- Supply chain IA: modèles malveillants, MCP exposés, slopsquatting
- Vol d’identifiants (infostealers) et abus de comptes IA
Cette publication est une analyse de menace TLP:CLEAR visant à synthétiser l’état de la menace en 2025 autour de l’IA générative et des risques associés au ciblage des systèmes d’IA.
🧠 TTPs et IOCs détectés
TTP
Génération de phishing et de contenus de social engineering multilingues; Reconnaissance automatisée et caractérisation des cibles via sites IA; Deepfakes pour usurpation d’identité; Génération de scripts/malwares par LLM; Polymorphisme assisté par IA; Jailbreak/contournement des garde-fous, LLM « débridés »; Empoisonnement des données d’entraînement; Supply chain IA: modèles malveillants, MCP exposés, slopsquatting; Vol d’identifiants (infostealers) et abus de comptes IA
IOC
non fournis dans la synthèse
🔗 Source originale : https://cyber.gouv.fr/actualites/synthese-de-la-menace-sur-lia-generative-face-aux-attaques-informatiques/