Aim Labs a récemment découvert une vulnérabilité critique appelée ‘EchoLeak’ dans Microsoft 365 (M365) Copilot. Cette faille permet à des attaquants d’exploiter des chaînes d’attaque pour extraire automatiquement des informations sensibles du contexte de M365 Copilot, sans que l’utilisateur en soit conscient.

La technique d’exploitation, nommée ‘LLM Scope Violation’, représente une avancée majeure dans la recherche sur les attaques contre les agents d’IA, en exploitant les mécanismes internes des modèles. Cela pourrait avoir des manifestations supplémentaires dans d’autres chatbots et agents basés sur RAG.

Pour mener une attaque réussie, un adversaire n’a besoin que d’envoyer un email à la victime, sans restriction sur l’adresse email de l’expéditeur. Malgré l’interface de M365 Copilot ouverte uniquement aux employés de l’organisation, l’attaque reste possible, illustrant les risques potentiels inhérents à la conception des agents et chatbots.

Aim Labs poursuit ses recherches pour identifier de nouveaux types de vulnérabilités associées au déploiement de l’IA et développer des garde-fous pour atténuer ces vulnérabilités. Actuellement, aucun client n’a été impacté selon Aim Labs. Cet article est une publication de recherche visant à alerter sur cette vulnérabilité et ses implications potentielles.


🔗 Source originale : https://www.aim.security/lp/aim-labs-echoleak-blogpost

🖴 Archive : https://web.archive.org/web/20250612074812/https://www.aim.security/lp/aim-labs-echoleak-blogpost