L’article publié par TechCrunch rapporte une avancée significative dans le domaine de la cybersécurité avec l’annonce de Google concernant son outil d’intelligence artificielle, Big Sleep.
Heather Adkins, vice-présidente de la sécurité chez Google, a annoncé que Big Sleep, un chercheur de vulnérabilités basé sur un modèle de langage (LLM), a découvert et signalé 20 failles de sécurité dans divers logiciels open source populaires. Ces découvertes ont été faites principalement dans des logiciels tels que la bibliothèque audio et vidéo FFmpeg et la suite d’édition d’images ImageMagick.
Bien que les détails sur l’impact ou la gravité des vulnérabilités n’aient pas encore été divulgués, Google a souligné que chaque vulnérabilité a été trouvée et reproduite par l’agent IA sans intervention humaine. Cependant, un expert humain a été impliqué pour garantir la qualité et l’actionnabilité des rapports avant leur soumission.
Royal Hansen, vice-président de l’ingénierie chez Google, a qualifié ces découvertes de « nouvelle frontière dans la découverte automatisée de vulnérabilités ». Outre Big Sleep, d’autres outils alimentés par des LLM, tels que RunSybil et XBOW, sont également mentionnés comme étant déjà opérationnels dans ce domaine.
Cet article de TechCrunch met en lumière les avancées technologiques dans l’automatisation de la découverte de vulnérabilités, soulignant l’importance croissante des outils basés sur l’IA dans le renforcement de la sécurité des logiciels open source.
🔗 Source originale : https://techcrunch.com/2025/08/04/google-says-its-ai-based-bug-hunter-found-20-security-vulnerabilities/