Détection et empreinte carbone : un indice d’éco‑efficience pour les modèles de sécurité

Help Net Security rapporte une étude qui intègre la consommation d’énergie et les émissions carbone dans l’évaluation des modèles de détection utilisés en sécurité, en plus des métriques classiques de précision. L’objectif est d’aider les équipes SecOps à raisonner sur la performance et le coût compute de leurs pipelines. ♻️ 🔬 Ce qui est mesuré Deux axes: métriques de détection (precision, recall, F1) et consommation d’énergie/émissions lors de l’entraînement et de l’inférence. Environnement: Google Colab, avec CodeCarbon pour estimer la puissance et le CO₂ par région. Modèles évalués (courants en IDS et supervision réseau): régression logistique, random forest, SVM, isolation forest, XGBoost. 📊 Indice proposé ...

10 janvier 2026 · 2 min

IA dans les SOC : adoption, confiance conditionnelle et impact sur les analystes

Selon CEUR Workshop Proceedings (STPIS25), une étude de l’Université de Portsmouth analyse l’intégration de l’IA (machine learning appliqué) dans les Security Operations Centres (SOC) via une enquête mixte auprès de 58 professionnels de la cybersécurité. Le travail se concentre sur l’IA pour la détection d’anomalies et le tri des alertes, en excluant les modèles génératifs (LLM). Principaux constats quantitatifs: 68% déclarent utiliser au moins une technologie d’IA en opérations SOC. Les cas d’usage dominants sont le tri/détection des menaces, l’analyse de trafic réseau, l’identification de comportements, la détection de phishing et l’automatisation de tickets/réponse. 84% jugent l’IA efficace pour réduire les alertes non pertinentes et l’alert fatigue. La confiance reste conditionnelle: 19% déclarent une forte confiance, 34% une confiance partielle, avec une préférence pour l’IA en corrélation/enrichissement plutôt qu’en scorage de sévérité. ...

3 janvier 2026 · 2 min

CrowdStrike publie EMBER2024, un vaste jeu de données pour entraîner des modèles ML contre les malwares

Source: CrowdStrike (blog). CrowdStrike présente EMBER2024, une mise à jour majeure du jeu de données EMBER pour l’entraînement et l’évaluation de modèles de détection de malwares, avec plus de 3,2 millions de fichiers couvrant six formats (Win32, Win64, .NET, APK, PDF, ELF) et des étiquettes adaptées à sept tâches de classification (dont détection de malware, classification par famille, identification de comportements), incluant l’évaluation face à des échantillons évasifs. Points clés 🧠 ...

3 septembre 2025 · 2 min

Avancées en sécurité de l'IA présentées à la conférence SciPy 2025

La conférence SciPy 2025, telle que rapportée par Emerging Technology Security, a mis en lumière des avancées significatives dans le domaine de la sécurité de l’IA utilisant Python. Les discussions ont porté sur des thèmes clés tels que l’IA explicable pour la conformité et la transparence, l’utilisation de l’analyse de graphes pour la détection des menaces, les pratiques sécurisées de déploiement des LLM (modèles de langage de grande taille), et la vérification des modèles via OpenSSF Model Signing. ...

26 juillet 2025 · 2 min

Microsoft corrige un problème de machine learning qui marquait les emails Adobe comme spam

🔍 Problème détecté Depuis le 22 avril 2025 à 09:24 UTC, certains utilisateurs d’Exchange Online ont constaté que des emails d’Adobe étaient faussement signalés comme spam. Le système déclenchait des alertes indiquant un clic potentiel sur une URL malveillante, bien que ces liens soient légitimes. 🧠 Cause identifiée Microsoft a expliqué que le modèle de machine learning (ML) utilisé pour détecter les emails à risque classait à tort les messages d’Adobe comme du spam. Ces messages étaient trop similaires à des emails de type spam réellement malveillants. ...

24 avril 2025 · 2 min
Dernière mise à jour le: 9 Feb 2026 📝