Technique d'attaque 'Policy Puppetry' menace les modèles majeurs de l'IA
Une nouvelle attaque baptisée “Policy Puppetry” permet de contourner les protections de tous les grands modèles d’IA générative, révèle la société de cybersécurité HiddenLayer. Cette technique universelle repose sur des invites conçues pour être interprétées par les modèles comme des fichiers de politique (par exemple en format XML, INI ou JSON). Cela trompe les modèles en neutralisant leurs garde-fous habituels contre la production de contenus dangereux, notamment liés aux menaces chimiques, biologiques, radiologiques et nucléaires (CBRN), à la violence ou à l’automutilation. ...