Selon l’article, le chief scientist de Microsoft, Eric Horvitz, a conduit un expériment visant à évaluer si des algorithmes d’IA générative peuvent identifier des failles dans les systèmes de biosécurité.
L’étude démontre que des algorithmes génératifs sont capables de mettre au jour des vulnérabilités inconnues au sein de dispositifs de contrôle de biosécurité conçus pour empêcher la synthèse d’agents toxiques ou pathogènes. 🧬🤖
Le cœur du constat: ces modèles peuvent aider à révéler des points faibles dans les mécanismes de filtrage et de vérification utilisés avant la synthèse de séquences potentiellement dangereuses, remettant en question l’efficacité et la robustesse des contrôles existants. ⚠️
Aucun détail opérationnel n’est fourni sur la nature exacte des vulnérabilités ni sur des tentatives d’exploitation; l’article met l’accent sur la capacité générale des IA génératives à identifier ces failles et sur les implications pour la sécurité des infrastructures de biosécurité.
Type d’article: article de presse relatant une publication/expérimentation de recherche et ses enseignements principaux.
🔗 Source originale : https://www.cybersecurity360.it/nuove-minacce/biosecurity-la-progettazione-di-proteine-con-lai-apre-a-rischi-inediti/