Selon Mend (référence: mend.io), une nouvelle voie d’attaque dite slopsquatting exploite la tendance des assistants de codage IA à proposer des dépendances inexistantes, que des attaquants enregistrent ensuite en packages malveillants, créant un risque majeur pour la supply chain logicielle. Un package halluciné a déjà cumulé plus de 30 000 téléchargements.
L’étude, menée sur 16 LLMs et 500 000+ prompts, mesure des taux d’hallucination de packages allant de 3,59% (GPT-4 Turbo) à 33%+ (CodeLlama). Les modèles open-source affichent 21,7% en moyenne contre 5,2% pour les modèles commerciaux. Au total, 205 000+ noms de packages hallucinés ont été observés, dont 43% répétés de manière récurrente.
Côté ecosystemes, Python présente un taux d’hallucination de 23,14%, contre 14,73% pour JavaScript. Le phénomène accroît la surface d’attaque de la chaîne d’approvisionnement logicielle, en s’apparentant à des techniques de typosquatting mais ciblant des noms de packages inventés par les LLMs.
TTPs observés/mentionnés:
- Slopsquatting: enregistrement de noms de packages hallucinés par des LLMs pour y publier des paquets malveillants.
- Exploitation de la confiance accordée aux suggestions d’assistants IA par les développeurs.
- Attaques supply chain via écosystèmes de packages (ex. Python, JavaScript).
Mesures évoquées par la recherche: scans automatisés de dépendances, réduction de la température des modèles, intégration d’outils de sécurité dans les assistants IA, ainsi que audits de dépendances, pratiques de prompt engineering et processus de vérification. Il s’agit d’une publication de recherche visant à documenter un vecteur d’attaque émergent et à proposer des pistes de mitigation.
🔗 Source originale : https://www.mend.io/blog/the-hallucinated-package-attack-slopsquatting/