Source: The Register — Des ingénieurs de l’Université de New York (NYU) ont présenté un proof-of-concept (PoC) de ransomware piloté par IA, baptisé « Ransomware 3.0 », né d’une idée d’article scientifique et rapidement devenu un sujet brûlant dans l’écosystème sécurité.

Quand l’IA invente (par accident) le premier rançongiciel autonome

Une équipe d’ingénieurs de l’Université de New York a créé ce qui a été pris, à tort, pour le premier ransomware piloté par IA. Leur objectif initial n’était pas de lancer une cyberattaque, mais de produire une démonstration technique pour une conférence de cybersécurité. Pourtant, leur prototype, baptisé officieusement Ransomware 3.0, a été identifié dans la nature et présenté par erreur comme une menace active surnommée PromptLock.

L’expérience de recherche

  • Les chercheurs voulaient explorer l’intersection entre modèles de langage avancés (LLM) et ransomwares modernes.
  • Ils ont conçu une preuve de concept capable de couvrir tout le cycle de vie d’une attaque par ransomware :
    1. Cartographie et analyse du système infecté
    2. Génération de scripts personnalisés en Lua
    3. Détection des fichiers les plus sensibles pour maximiser l’extorsion
    4. Rédaction d’une note de rançon personnalisée en fonction des données de l’utilisateur

Pourquoi ce ransomware était différent

  • Ciblage précis : contrairement aux attaques classiques, il sélectionne seulement quelques fichiers clés, rendant la détection plus difficile.
  • Polymorphisme : le code généré change à chaque exécution, évitant les signatures statiques.
  • Personnalisation : même la note de rançon était adaptée au profil du propriétaire de l’ordinateur.

Le malentendu avec PromptLock

Lors de tests sur VirusTotal, leur code a été détecté par des analystes d’ESET, qui ont cru avoir affaire à une attaque réelle.

  • Des articles de presse ont annoncé la découverte du premier ransomware autonome.
  • Les chercheurs ont dû clarifier : leur binaire ne fonctionne que dans un environnement de labo et n’était pas conçu pour circuler activement.

Enjeux et signaux faibles

  • Bien que cette expérience ne constitue pas une menace directe, elle prouve la faisabilité d’un ransomware 100 % généré et orchestré par l’IA.
  • Les modèles testés (gpt-oss-20b et gpt-oss-120b) ont fourni du code sans contournement ni manipulation, en exécutant simplement des tâches unitaires (scanner, générer, écrire des notes).
  • Ce cas met en lumière à quel point assembler des briques élémentaires produites par l’IA peut aboutir à une arme complète.

Ce que cela dit du futur

  • Les cybercriminels exploitent déjà des IA pour lancer des opérations d’extorsion réelles.
  • Les défenseurs doivent s’attendre à des attaques plus intelligentes, adaptatives et furtives dans les années à venir.
  • La frontière entre recherche académique et cybermenace effective devient de plus en plus fine.

En somme, Ransomware 3.0 n’était qu’une preuve de concept académique… mais il a offert au monde un aperçu très concret de ce que pourrait être la prochaine génération de rançongiciels autonomes, alimentés par l’IA.

TTPs (techniques, tactiques et procédures) observés:

  • Automatisation pilotée par LLM des étapes clés du cycle de vie ransomware
  • Reconnaissance et cartographie d’infrastructure
  • Séléction de cibles/fichiers à haute valeur
  • Génération de payloads/scripts Lua adaptés à l’hôte

Il s’agit d’un article de presse spécialisé décrivant une publication de recherche/PoC dont l’objectif est de démontrer la faisabilité d’un ransomware entièrement piloté par IA.


🔗 Source originale : https://www.theregister.com/2025/09/05/real_story_ai_ransomware_promptlock/

🖴 Archive : https://web.archive.org/web/20250907194915/https://www.theregister.com/2025/09/05/real_story_ai_ransomware_promptlock/