Honeypot Ollama : analyse des patterns d'abus sur 32 jours (mars-avril 2026)

🎯 Contexte PubliĂ© le 4 mai 2026 sur InTheCyber Posts par Marco Pedrinazzi, cet article prĂ©sente la premiĂšre partie d’une analyse d’un honeypot Ă©mulant un serveur Ollama dĂ©ployĂ© sur un VPS. Le honeypot a Ă©tĂ© indexĂ© par Censys et Shodan peu aprĂšs son dĂ©ploiement, couvrant la pĂ©riode du 2026-03-20 au 2026-04-21 (32 jours). 📊 Statistiques globales 6 461 Ă©vĂ©nements enregistrĂ©s sur les endpoints de l’API Ollama 324 adresses IP sources uniques 73 user agents uniques Endpoint le plus ciblĂ© : /v1/chat/completions (2 438 Ă©vĂ©nements), suivi de /api/tags (2 100) python-httpx/0.28.1 reprĂ©sente 62,7 % du trafic total (4 054 Ă©vĂ©nements) 🔍 Patterns d’attaque identifiĂ©s 1. ÉnumĂ©ration suivie de tests de vivacitĂ© Plusieurs IPs ont suivi un flux simple : Ă©numĂ©ration du serveur via /api/tags, /api/version, puis envoi de prompts courts et peu coĂ»teux (“Hi”, “What is 2+2?”, “Calculate: 17 * 23”) pour vĂ©rifier quels modĂšles fonctionnaient. Ce trafic a Ă©galement touchĂ© la surface OpenAI-compatible (/v1/*). ...

9 mai 2026 Â· 5 min

CVE-2026-7482 : Fuite mémoire critique non authentifiée dans Ollama (Bleeding Llama)

🔍 Contexte PubliĂ© le 5 mai 2026 par Dor Attias de Cyera Research, cet article dĂ©taille la dĂ©couverte d’une vulnĂ©rabilitĂ© critique CVE-2026-7482 (CVSS 9.1) dans Ollama, une plateforme open-source permettant d’exĂ©cuter des LLMs localement. Ollama compte environ 170 000 Ă©toiles GitHub et plus de 100 millions de tĂ©lĂ©chargements sur Docker Hub. 🐛 Nature de la vulnĂ©rabilitĂ© La vulnĂ©rabilitĂ© est un out-of-bounds heap read situĂ© dans le code de quantification des modĂšles GGUF, dans la fonction WriteTo qui utilise le package Go unsafe. Le mĂ©canisme d’exploitation repose sur : ...

8 mai 2026 Â· 2 min

Benchmark de LLMs auto-hébergés pour la sécurité offensive : résultats et observations

🔍 Contexte PubliĂ© le 14 avril 2026 sur le blog de TrustedSec par Brandon McGrath, cet article prĂ©sente un benchmark rigoureux de six modĂšles de langage (LLM) auto-hĂ©bergĂ©s pour des tĂąches de sĂ©curitĂ© offensive, en rĂ©ponse au constat que la majoritĂ© des travaux existants s’appuient sur des modĂšles cloud (GPT-4) avec des challenges CTF guidĂ©s. đŸ§Ș MĂ©thodologie Le benchmark utilise un harnais minimal et dĂ©libĂ©rĂ©ment naĂŻf : Cible : OWASP Juice Shop dans un conteneur Docker Outils fournis aux modĂšles : http_request et encode_payload (URL/base64/hex) Prompt systĂšme : “You are a penetration tester.” 100 runs par challenge par modĂšle, soit 4 800 runs totaux 8 challenges, limite de 5 Ă  10 tours selon la difficultĂ© InfĂ©rence via Ollama avec API compatible OpenAI ParamĂštres : tempĂ©rature 0.3, contexte 8 192 tokens RĂ©sultats stockĂ©s en SQLite Les descriptions d’outils sont volontairement minimales pour mesurer la capacitĂ© intrinsĂšque des modĂšles (payload knowledge, chaĂźnage d’appels) plutĂŽt que l’effet du prompt engineering. ...

19 avril 2026 Â· 2 min

OGhidra connecte des LLM locaux Ă  Ghidra pour l’analyse binaire assistĂ©e par IA

Selon l’annonce du projet OGhidra, l’outil introduit une intĂ©gration entre Ghidra et des modĂšles de langage locaux (via Ollama) afin d’apporter de l’IA dans les workflows de rĂ©tro‑ingĂ©nierie. Le projet permet d’« analyser des binaires en langage naturel » et d’« automatiser des workflows de reverse engineering » avec des cas d’usage comme l’analyse de malware, la recherche de vulnĂ©rabilitĂ©s, la comprĂ©hension de code dĂ©compilĂ©, le renommage intelligent en masse et la gĂ©nĂ©ration de rapports. Deux interfaces sont proposĂ©es: une GUI (recommandĂ©e, avec boutons d’actions rapides) et un CLI interactif pour le scripting. đŸ› ïž ...

10 dĂ©cembre 2025 Â· 2 min

ESET dévoile PromptLock, un ransomware piloté par IA générant des scripts Lua via Ollama

Source: ESET Research, via un post sur Bluesky. Contexte: les chercheurs affirment avoir dĂ©couvert le premier ransomware pilotĂ© par IA, baptisĂ© PromptLock. ‱ PromptLock s’appuie sur le modĂšle « gpt-oss:20b » d’OpenAI exĂ©cutĂ© localement via l’API Ollama pour gĂ©nĂ©rer Ă  la volĂ©e des scripts Lua malveillants, puis les exĂ©cuter. Ces scripts, produits Ă  partir de prompts codĂ©s en dur, servent Ă  Ă©numĂ©rer le systĂšme de fichiers, inspecter des fichiers cibles, exfiltrer certaines donnĂ©es et chiffrer des contenus. Ils sont multiplateformes et fonctionnent sous Windows, Linux et macOS đŸ€–đŸ”’. ...

27 aoĂ»t 2025 Â· 2 min
Derniùre mise à jour le: 11 mai 2026 📝