Source: Bishop Fox — Dans un billet de recherche, Bishop Fox présente une méthodologie exploitant des modèles de langage pour accélérer et fiabiliser le « patch diffing » afin d’orienter la découverte de vulnérabilités à partir de correctifs.

🧪 Méthodologie: Les chercheurs combinent Binary Ninja (décompilation), BinDiff (analyse différentielle) et un prompting itératif avec LLM pour classer les fonctions par pertinence vis-à-vis de la vulnérabilité. L’approche vise à prioriser rapidement les zones de code à auditer après l’application d’un patch.

📊 Périmètre des tests: L’étude couvre 4 CVE à fort impact en évaluant plusieurs familles de vulnérabilités et volumes de fonctions analysées: divulgation d’informations (27 fonctions), injection de chaîne de format (134), contournement d’autorisation (1 424) et dépassement de tampon sur la pile (708).

⏱️ Résultats clés: Les LLM réduisent le temps d’analyse de plusieurs jours à quelques minutes tout en préservant l’exactitude. 66% des cas de test ont vu la fonction vulnérable apparaître dans le top 25 des résultats classés. Les cas plus simples atteignent jusqu’à 100% de réussite, tandis que les contournements d’autorisation plus complexes nécessitent des modèles de gamme supérieure, pour un coût moyen d’environ 35 $ par analyse.

⚙️ Modèles évalués: Claude Sonnet 3.7 ressort comme le meilleur compromis performance/coût pour la majorité des usages. L’article illustre une publication de recherche centrée sur une méthodologie reproductible d’automatisation de la découverte de vulnérabilités via le patch diffing assisté par LLM.


🔗 Source originale : https://bishopfox.com/blog/vulnerability-discovery-with-llm-powered-patch-diffing

🖴 Archive : https://web.archive.org/web/20250817163805/https://bishopfox.com/blog/vulnerability-discovery-with-llm-powered-patch-diffing