Le malentendu avec PromptLock: des chercheurs de NYU dévoilent un PoC de ransomware piloté par IA

Source: The Register — Des ingĂ©nieurs de l’UniversitĂ© de New York (NYU) ont prĂ©sentĂ© un proof-of-concept (PoC) de ransomware pilotĂ© par IA, baptisĂ© « Ransomware 3.0 », nĂ© d’une idĂ©e d’article scientifique et rapidement devenu un sujet brĂ»lant dans l’écosystĂšme sĂ©curitĂ©. Quand l’IA invente (par accident) le premier rançongiciel autonome Une Ă©quipe d’ingĂ©nieurs de l’UniversitĂ© de New York a créé ce qui a Ă©tĂ© pris, Ă  tort, pour le premier ransomware pilotĂ© par IA. Leur objectif initial n’était pas de lancer une cyberattaque, mais de produire une dĂ©monstration technique pour une confĂ©rence de cybersĂ©curitĂ©. Pourtant, leur prototype, baptisĂ© officieusement Ransomware 3.0, a Ă©tĂ© identifiĂ© dans la nature et prĂ©sentĂ© par erreur comme une menace active surnommĂ©e PromptLock. ...

7 septembre 2025 Â· 3 min

Des SLM locaux permettent des opĂ©rations d’influence IA « end-to-end » et rĂ©vĂšlent une signature de dĂ©tection

Source et contexte: Publication acadĂ©mique de Lukasz Olejnik (King’s College London) analysant la faisabilitĂ© d’« usines Ă  propagande IA » opĂ©rĂ©es avec des petits modĂšles de langage (SLM) en local sur du matĂ©riel grand public. L’étude dĂ©montre qu’un pipeline complet de gĂ©nĂ©ration et d’évaluation de contenus politiques peut fonctionner sans intervention humaine, en local, avec des SLM ouverts. Huit personas politiques (gauche/droite, tons et styles variĂ©s) sont testĂ©s sur 180 fils Reddit ChangeMyView. Les rĂ©ponses sont Ă©valuĂ©es automatiquement par un juge LLM local (Qwen3‑30B) pour mesurer la fidĂ©litĂ© au persona (PF), l’adhĂ©rence idĂ©ologique (IAS) et l’extrĂ©mitĂ© (EIC). ...

31 aoĂ»t 2025 Â· 2 min

ESET dévoile PromptLock, un ransomware piloté par IA générant des scripts Lua via Ollama

Source: ESET Research, via un post sur Bluesky. Contexte: les chercheurs affirment avoir dĂ©couvert le premier ransomware pilotĂ© par IA, baptisĂ© PromptLock. ‱ PromptLock s’appuie sur le modĂšle « gpt-oss:20b » d’OpenAI exĂ©cutĂ© localement via l’API Ollama pour gĂ©nĂ©rer Ă  la volĂ©e des scripts Lua malveillants, puis les exĂ©cuter. Ces scripts, produits Ă  partir de prompts codĂ©s en dur, servent Ă  Ă©numĂ©rer le systĂšme de fichiers, inspecter des fichiers cibles, exfiltrer certaines donnĂ©es et chiffrer des contenus. Ils sont multiplateformes et fonctionnent sous Windows, Linux et macOS đŸ€–đŸ”’. ...

27 aoĂ»t 2025 Â· 2 min

Convergence des technologies émergentes: IA, IoT, blockchain, quantique et nouveaux risques cyber

Selon un rapport de recherche publiĂ© le 8 aoĂ»t 2025, la convergence de technologies Ă©mergentes (IA, IoT, edge/fog, blockchain/DLT, communications quantiques, satellites LEO, jumeaux numĂ©riques, BCI/robotique, personnalisation en santĂ©, etc.) transforme profondĂ©ment le paysage des menaces et des dĂ©fenses en cybersĂ©curitĂ©. Le document dresse un panorama des paires et groupements technologiques les plus discutĂ©s (ex. Digital Twins + IA, Blockchain + IA, IA + IoT, Edge + IoT, LEO + communications quantiques, BCI + robotique, IA + mĂ©decine personnalisĂ©e, Comms quantiques + IoT), en soulignant des risques rĂ©currents: attaque par empoisonnement de modĂšles, adversarial ML, manipulation/altĂ©ration des donnĂ©es, atteintes Ă  la vie privĂ©e, Ă©largissement de la surface d’attaque et tensions rĂ©glementaires (ex. immutabilitĂ© blockchain vs droit Ă  l’effacement). ...

17 aoĂ»t 2025 Â· 2 min

Des entreprises d’IA chinoises accusĂ©es d’opĂ©rations d’influence: documents sur GoLaxy

Source: The New York Times — Des documents examinĂ©s par des chercheurs indiquent que le gouvernement chinois s’appuie sur des entreprises spĂ©cialisĂ©es en intelligence artificielle pour surveiller et manipuler l’opinion publique, renforçant ses capacitĂ©s d’information warfare. Des documents internes attribuĂ©s Ă  GoLaxy dĂ©crivent des campagnes d’influence menĂ©es Ă  Hong Kong et TaĂŻwan, ainsi que la collecte de donnĂ©es sur des membres du CongrĂšs amĂ©ricain et d’autres personnalitĂ©s influentes. La sociĂ©tĂ© revendique une technologie permettant de suivre les dĂ©bats publics, monitorer des individus et Ă©valuer le sentiment global, avec la promesse de produire en masse de la propagande pour contrer des Ă©volutions d’opinion. ...

11 aoĂ»t 2025 Â· 2 min

Découverte de vulnérabilités critiques dans le serveur NVIDIA Triton Inference

L’équipe de recherche de Wiz a dĂ©couvert une chaĂźne de vulnĂ©rabilitĂ©s critiques dans le serveur NVIDIA Triton Inference, une plateforme open-source populaire pour l’exĂ©cution de modĂšles d’IA Ă  grande Ă©chelle. Ces vulnĂ©rabilitĂ©s, lorsqu’elles sont exploitĂ©es ensemble, permettent Ă  un attaquant distant non authentifiĂ© de prendre le contrĂŽle total du serveur, rĂ©alisant ainsi une exĂ©cution de code Ă  distance (RCE). L’attaque commence par une fuite d’informations mineure dans le backend Python du serveur, qui s’escalade astucieusement en une compromission complĂšte du systĂšme. ...

6 aoĂ»t 2025 Â· 1 min

Google dévoile les premiÚres vulnérabilités détectées par son IA Big Sleep

L’article publiĂ© par TechCrunch rapporte une avancĂ©e significative dans le domaine de la cybersĂ©curitĂ© avec l’annonce de Google concernant son outil d’intelligence artificielle, Big Sleep. Heather Adkins, vice-prĂ©sidente de la sĂ©curitĂ© chez Google, a annoncĂ© que Big Sleep, un chercheur de vulnĂ©rabilitĂ©s basĂ© sur un modĂšle de langage (LLM), a dĂ©couvert et signalĂ© 20 failles de sĂ©curitĂ© dans divers logiciels open source populaires. Ces dĂ©couvertes ont Ă©tĂ© faites principalement dans des logiciels tels que la bibliothĂšque audio et vidĂ©o FFmpeg et la suite d’édition d’images ImageMagick. ...

5 aoĂ»t 2025 Â· 2 min

Prolifération de faux rapports de vulnérabilité générés par IA

Selon un article de TechCrunch, l’industrie de la cybersĂ©curitĂ© est confrontĂ©e Ă  un problĂšme croissant de rapports de vulnĂ©rabilitĂ© gĂ©nĂ©rĂ©s par intelligence artificielle (IA) qui sont souvent faux ou trompeurs. Les experts du secteur, comme Vlad Ionescu de RunSybil, soulignent que ces rapports, bien que techniquement convaincants, ne rĂ©vĂšlent souvent aucune vulnĂ©rabilitĂ© rĂ©elle. Les modĂšles de langage (LLM) crĂ©ent des dĂ©tails techniques fictifs, ce qui complique le travail des professionnels de la sĂ©curitĂ©. ...

2 aoĂ»t 2025 Â· 1 min

Rapport IBM 2025 : Coût des violations de données et tendances

Le rapport 2025 sur le coĂ»t des violations de donnĂ©es d’IBM met en lumiĂšre un paradoxe surprenant : bien que les coĂ»ts globaux des violations aient diminuĂ© Ă  4,44 millions de dollars, les organisations amĂ©ricaines font face Ă  des coĂ»ts records de 10,22 millions de dollars par violation. Les menaces basĂ©es sur l’identitĂ© restent centrales dans les cyberattaques modernes, avec le phishing surpassant les identifiants compromis comme principal vecteur d’accĂšs initial. Les organisations qui utilisent largement l’IA et l’automatisation obtiennent des rĂ©sultats significativement meilleurs, avec une rĂ©solution des violations 80 jours plus rapide et des coĂ»ts rĂ©duits de 1,9 million de dollars. Cependant, seulement 32% des organisations ont adoptĂ© ces technologies de maniĂšre extensive. ...

2 aoĂ»t 2025 Â· 2 min

Koske : Un malware Linux sophistiqué généré par IA

L’article publiĂ© par Aqua Nautilus dĂ©voile Koske, un malware Linux sophistiquĂ© qui utilise des techniques innovantes pour contourner les dĂ©fenses traditionnelles. Ce malware montre des signes de dĂ©veloppement assistĂ© par IA, probablement avec l’aide d’un grand modĂšle de langage. Koske exploite une instance JupyterLab mal configurĂ©e pour obtenir un accĂšs initial, en tĂ©lĂ©chargeant des images JPEG malveillantes via des URL raccourcies. Ces images sont des fichiers polyglottes, contenant des charges utiles malveillantes qui sont extraites et exĂ©cutĂ©es en mĂ©moire, Ă©chappant ainsi aux outils antivirus. ...

28 juillet 2025 Â· 2 min
Derniùre mise à jour le: 23 Sep 2025 📝