🌐 Contexte
Publié le 1 mai 2026 sur le site de la CISA, ce document est une guidance conjointe co-rédigée par l’ASD/ACSC (Australie), la CISA et la NSA (États-Unis), le Centre canadien pour la cybersécurité, le NCSC-NZ (Nouvelle-Zélande) et le NCSC-UK (Royaume-Uni). Il s’adresse aux gouvernements, opérateurs d’infrastructures critiques et acteurs industriels qui conçoivent, développent, déploient ou opèrent des systèmes d’IA agentique basés sur des LLM.
🤖 Définition et périmètre
Les systèmes d’IA agentique se distinguent de l’IA générative classique par leur capacité à agir de manière autonome, à planifier sur le long terme, à atteindre des objectifs sous-spécifiés et à créer des sous-agents. Ils intègrent des LLM, des outils externes, des sources de données, des mémoires et des workflows de planification.
⚠️ Risques identifiés
Le guide structure les risques en cinq catégories :
- Risques de privilèges : compromission de privilèges, scope creep, usurpation d’identité d’agent, pattern du « confused deputy »
- Risques de conception et configuration : composants tiers non vérifiés, permissions statiques évaluées une seule fois, mauvaise segmentation entre environnements agents
- Risques comportementaux : désalignement des objectifs (specification gaming), comportements trompeurs ou sycophantiques, capacités émergentes imprévues, exploitation malveillante via prompt injection, jailbreaks, data poisoning, exemples adversariaux
- Risques structurels : défaillances en cascade, attaques par déni de service/sponge, usage d’outils malveillants, composants tiers compromis (tool squatting), agents compromis (rogue agents), communications non sécurisées
- Risques de responsabilité : opacité des décisions, logs difficiles à exploiter, hallucinations, visibilité limitée sur les actions des outils
🛡️ Bonnes pratiques recommandées
Le guide couvre quatre phases du cycle de vie :
- Conception : hiérarchie d’instructions, mécanismes de supervision humaine, gestion des identités (PKI, mTLS, registre de confiance), défense en profondeur
- Développement : tests adversariaux, red teaming, gestion des entrées (filtres anti-prompt injection), résilience, journalisation, gestion des composants tiers (SBOM)
- Déploiement : threat modelling (OWASP GenAI, MITRE ATLAS), gouvernance, déploiement progressif, guardrails, isolation
- Opération : monitoring continu, validation des sorties, human-in-the-loop, gestion des privilèges en temps réel, authentification cryptographique
🔭 Perspectives futures
Le document recommande d’étendre la threat intelligence collaborative, de développer des évaluations spécifiques aux agents et d’appliquer des approches systémiques (STPA, STPA-Sec, CAST) pour analyser la sécurité des architectures complexes.
📄 Nature du document
Il s’agit d’une recommandation de sécurité institutionnelle à portée internationale, visant à fournir un cadre pratique et actionnable pour la sécurisation des systèmes d’IA agentique dans des contextes gouvernementaux et d’infrastructures critiques.
🧠 TTPs et IOCs détectés
TTP
- T1566 — Phishing (Initial Access)
- T1190 — Exploit Public-Facing Application (Initial Access)
- T1078 — Valid Accounts (Defense Evasion)
- T1548 — Abuse Elevation Control Mechanism (Privilege Escalation)
- T1195 — Supply Chain Compromise (Initial Access)
- T1059 — Command and Scripting Interpreter (Execution)
- T1114 — Email Collection (Collection)
- T1485 — Data Destruction (Impact)
- T1562 — Impair Defenses (Defense Evasion)
- T1041 — Exfiltration Over C2 Channel (Exfiltration)
🟡 Indice de vérification factuelle : 60/100 (moyenne)
- ✅ cisa.gov — source reconnue (liste interne) (20pts)
- ✅ 62829 chars — texte complet (fulltext extrait) (15pts)
- ⬜ aucun IOC extrait (0pts)
- ⬜ pas d’IOC à vérifier (0pts)
- ✅ 10 TTPs MITRE identifiées (15pts)
- ✅ date extraite du HTML source (10pts)
- ⬜ aucun acteur de menace nommé (0pts)
- ⬜ pas de CVE à vérifier (0pts)
🔗 Source originale : https://www.cisa.gov/resources-tools/resources/careful-adoption-agentic-ai-services