Source : Trend Micro (Emerging Technology Security). Le billet présente une analyse des techniques de compromission des modèles de langage et insiste sur une démarche de sécurité « verify, then trust » pour protéger la chaîne d’approvisionnement IA.
L’analyse met en avant trois méthodes clés de compromission : l’injection de code malveillant dans les fichiers de modèles (notamment via des vulnérabilités de sérialisation pickle), des adapteurs LoRA malveillants capables de manipuler le comportement du modèle, et l’empoisonnement des données de formation pour implanter des portes dérobées. Elle évoque également des attaques par ré‑entraînement direct du modèle. 🔎
Côté technique, la recherche détaille comment les fichiers au format pickle peuvent contenir des charges exécutables lors du désérialisation, permettant l’exécution de code. Les attaques LoRA exploitent de petits fichiers d’adaptation pour modifier subtilement les sorties. Les backdoors par data poisoning insèrent des déclencheurs pendant l’entraînement afin d’activer des comportements spécifiques. 🧩
Parmi les mesures de mitigation discutées : vérification d’intégrité des fichiers (ex. hachage), adoption du format safetensors, outils d’analyse spécialisés pour détecter des modifications non autorisées, contrôles d’intégrité des données et surveillance stricte des accès — le tout dans une logique de protection contre les attaques de chaîne d’approvisionnement visant l’infrastructure IA. 🔒
TTPs mentionnées :
- Injection de charges via désérialisation pickle (exécution de code)
- LoRA malveillantes modifiant le comportement du modèle
- Empoisonnement des données avec déclencheurs/backdoors
- Ré‑entraînement direct de modèles
- Altération non autorisée de fichiers de modèles et composants de la supply chain
Type d’article : publication de recherche visant à décrire des vecteurs de compromission des LLM et à présenter des contrôles techniques pour renforcer l’intégrité et la sécurité de la chaîne d’approvisionnement IA.
🔗 Source originale : https://www.trendmicro.com/en_us/research/25/i/prevent-llm-compromise.html