CrowdStrike formalise un découpage de données anti‑fuite pour mieux évaluer les modèles ML en cybersécurité

Source: CrowdStrike (blog) — Dans un billet technique, CrowdStrike met en lumière un problème clé de l’IA appliquée à la cybersécurité: la fuite d’information entre ensembles d’entraînement et de test qui gonfle artificiellement les performances des modèles. Le cœur du problème présenté est la train‑test leakage lorsque des observations corrélées (événements liés au même arbre de processus, scripts similaires, ou provenant de la même machine) sont réparties aléatoirement entre train et test. Cette pratique crée des attentes de performance irréalistes et peut conduire à des échecs face à des menaces inédites en production. ...

11 août 2025 · 1 min

Microsoft et CrowdStrike unissent leurs taxonomies de menaces

Dans un article publié le 3 juin 2025, Microsoft et CrowdStrike annoncent leur collaboration pour aligner leurs taxonomies de menaces respectives, une initiative visant à améliorer l’efficacité des professionnels de la sécurité. Microsoft et CrowdStrike s’associent pour créer une harmonisation des taxonomies des acteurs de la menace. Cette initiative est motivée par le besoin d’accélérer la réponse aux cyberattaques, où même quelques secondes de retard peuvent faire la différence entre stopper une attaque ou subir un rançongiciel. ...

3 juin 2025 · 2 min
Dernière mise à jour le: 10 Sep 2025 📝