OpenAI lance Aardvark, un agent de recherche de vulnĂ©rabilitĂ©s alimentĂ© par GPT‑5 (bĂȘta privĂ©e)

Source: OpenAI (openai.com) — Annonce du 30 octobre 2025. OpenAI prĂ©sente « Aardvark », un agent de recherche en sĂ©curitĂ© alimentĂ© par GPT‑5, destinĂ© Ă  aider les Ă©quipes Ă  dĂ©couvrir et corriger des vulnĂ©rabilitĂ©s Ă  grande Ă©chelle, actuellement en bĂȘta privĂ©e. Aardvark opĂšre comme un chercheur en sĂ©curitĂ©: il lit et comprend le code, raisonne avec un LLM, Ă©crit et exĂ©cute des tests, et utilise des outils pour identifier des failles. Contrairement aux approches classiques (fuzzing, SCA), il s’appuie sur le raisonnement et l’orchestration d’outils pour repĂ©rer des bugs et proposer des correctifs. Il s’intĂšgre aux workflows existants (GitHub, OpenAI Codex) et fournit des explications annotĂ©es pour revue humaine. ...

2 novembre 2025 Â· 2 min

VulnĂ©rabilitĂ© GPT-5 : contamination de contexte inter‑session via erreurs de longueur et bouton Retry

Source: Knostic.ai — Des chercheurs en sĂ©curitĂ© rapportent une vulnĂ©rabilitĂ© reproductible dans GPT-5 causant une contamination de contexte inter‑session lors de scĂ©narios d’erreurs de longueur de message suivies d’un appui sur « Retry ». — RĂ©sumĂ© factuel — Nature du problĂšme: vulnĂ©rabilitĂ© de gestion d’erreurs et de session entraĂźnant une contamination de contexte cross‑session. Conditions: prompts surdimensionnĂ©s provoquant des erreurs de type message_length_exceeds_limit, puis action Retry. Impact observĂ©: gĂ©nĂ©ration de rĂ©ponses issues de conversations non liĂ©es. Aucune exposition de donnĂ©es sensibles confirmĂ©e, mais risque de confiance et de confidentialitĂ© Ă©levĂ©, notamment pour des environnements entreprise et rĂ©glementĂ©s. — DĂ©tails techniques — ...

15 aoĂ»t 2025 Â· 2 min
Derniùre mise à jour le: 26 Nov 2025 📝