CrowdStrike formalise un découpage de données anti‑fuite pour mieux évaluer les modèles ML en cybersécurité

Source: CrowdStrike (blog) — Dans un billet technique, CrowdStrike met en lumière un problème clé de l’IA appliquée à la cybersécurité: la fuite d’information entre ensembles d’entraînement et de test qui gonfle artificiellement les performances des modèles. Le cœur du problème présenté est la train‑test leakage lorsque des observations corrélées (événements liés au même arbre de processus, scripts similaires, ou provenant de la même machine) sont réparties aléatoirement entre train et test. Cette pratique crée des attentes de performance irréalistes et peut conduire à des échecs face à des menaces inédites en production. ...

11 août 2025 · 1 min
Dernière mise à jour le: 19 Aug 2025 📝