La PSF retire une subvention NSF pour un projet de sécurité PyPI en raison de clauses anti-DEI

Source: Python Software Foundation News — La PSF annonce avoir retiré une proposition de 1,5 M$ recommandée par la NSF (programme Safety, Security, and Privacy of Open Source Ecosystems) visant à renforcer la sécurité de Python et de PyPI. La décision fait suite à des conditions imposées par la NSF, dont l’exigence d’affirmer que l’organisation « n’opère pas et n’opérera pas de programmes qui promeuvent la DEI » et la possibilité de clawback (récupération a posteriori de fonds déjà versés). La PSF juge ces clauses incompatibles avec sa mission qui inclut le soutien à une communauté diverse et internationale. ...

2 novembre 2025 · 2 min

NVIDIA démontre des attaques par injection contre des agents IA de développement menant à l’exécution de code

Source: Emerging Technology Security, s’appuyant sur un billet technique de NVIDIA et une présentation à Black Hat USA 2025. Les chercheurs de NVIDIA décrivent comment des outils de codage assistés par IA et des Computer Use Agents (CUA) de niveau 3 d’autonomie peuvent être exploités via des watering hole attacks et de l’indirect prompt injection pour obtenir une exécution de code à distance (RCE) sur les postes développeurs. L’attaque abuse de l’« assistive alignment » et de l’autonomie croissante de ces agents, en insérant des charges malveillantes dans des sources non fiables comme des issues et pull requests GitHub pour pousser les agents à télécharger et exécuter du code malveillant. ...

10 octobre 2025 · 2 min

Slopsquatting : des packages “hallucinés” par les IA exploités pour des attaques supply chain

Selon Mend (référence: mend.io), une nouvelle voie d’attaque dite slopsquatting exploite la tendance des assistants de codage IA à proposer des dépendances inexistantes, que des attaquants enregistrent ensuite en packages malveillants, créant un risque majeur pour la supply chain logicielle. Un package halluciné a déjà cumulé plus de 30 000 téléchargements. L’étude, menée sur 16 LLMs et 500 000+ prompts, mesure des taux d’hallucination de packages allant de 3,59% (GPT-4 Turbo) à 33%+ (CodeLlama). Les modèles open-source affichent 21,7% en moyenne contre 5,2% pour les modèles commerciaux. Au total, 205 000+ noms de packages hallucinés ont été observés, dont 43% répétés de manière récurrente. ...

17 août 2025 · 2 min
Dernière mise à jour le: 10 Nov 2025 📝