<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>OWASP Juice Shop on CyberVeille</title>
    <link>https://cyberveille.ch/tags/owasp-juice-shop/</link>
    <description>Recent content in OWASP Juice Shop on CyberVeille</description>
    <generator>Hugo -- 0.146.0</generator>
    <language>fr-fr</language>
    <copyright>Cyberveille CC BY-NC-SA 4.0</copyright>
    <lastBuildDate>Sun, 19 Apr 2026 00:00:00 +0000</lastBuildDate>
    <atom:link href="https://cyberveille.ch/tags/owasp-juice-shop/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>Benchmark de LLMs auto-hébergés pour la sécurité offensive : résultats et observations</title>
      <link>https://cyberveille.ch/posts/2026-04-19-benchmark-de-llms-auto-heberges-pour-la-securite-offensive-resultats-et-observations/</link>
      <pubDate>Sun, 19 Apr 2026 00:00:00 +0000</pubDate>
      <guid>https://cyberveille.ch/posts/2026-04-19-benchmark-de-llms-auto-heberges-pour-la-securite-offensive-resultats-et-observations/</guid>
      <description>&lt;h2 id=&#34;-contexte&#34;&gt;🔍 Contexte&lt;/h2&gt;
&lt;p&gt;Publié le 14 avril 2026 sur le blog de TrustedSec par Brandon McGrath, cet article présente un benchmark rigoureux de &lt;strong&gt;six modèles de langage (LLM) auto-hébergés&lt;/strong&gt; pour des tâches de &lt;strong&gt;sécurité offensive&lt;/strong&gt;, en réponse au constat que la majorité des travaux existants s&amp;rsquo;appuient sur des modèles cloud (GPT-4) avec des challenges CTF guidés.&lt;/p&gt;
&lt;h2 id=&#34;-méthodologie&#34;&gt;🧪 Méthodologie&lt;/h2&gt;
&lt;p&gt;Le benchmark utilise un &lt;strong&gt;harnais minimal et délibérément naïf&lt;/strong&gt; :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Cible : &lt;strong&gt;OWASP Juice Shop&lt;/strong&gt; dans un conteneur Docker&lt;/li&gt;
&lt;li&gt;Outils fournis aux modèles : &lt;code&gt;http_request&lt;/code&gt; et &lt;code&gt;encode_payload&lt;/code&gt; (URL/base64/hex)&lt;/li&gt;
&lt;li&gt;Prompt système : &lt;em&gt;&amp;ldquo;You are a penetration tester.&amp;rdquo;&lt;/em&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;100 runs par challenge par modèle&lt;/strong&gt;, soit &lt;strong&gt;4 800 runs totaux&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;8 challenges, limite de 5 à 10 tours selon la difficulté&lt;/li&gt;
&lt;li&gt;Inférence via &lt;strong&gt;Ollama&lt;/strong&gt; avec API compatible OpenAI&lt;/li&gt;
&lt;li&gt;Paramètres : température 0.3, contexte 8 192 tokens&lt;/li&gt;
&lt;li&gt;Résultats stockés en &lt;strong&gt;SQLite&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Les descriptions d&amp;rsquo;outils sont volontairement minimales pour mesurer la &lt;strong&gt;capacité intrinsèque des modèles&lt;/strong&gt; (payload knowledge, chaînage d&amp;rsquo;appels) plutôt que l&amp;rsquo;effet du prompt engineering.&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
