Unit 42 dĂ©montre lâempoisonnement de la mĂ©moire longue dâun agent Amazon Bedrock via injection de prompt indirecte
Source: Emerging Technology Security â Contexte: des chercheurs de Unit 42 dĂ©taillent une dĂ©monstration dâattaque montrant comment des adversaires peuvent empoisonner la mĂ©moire longue dâun agent LLM via lâinjection de prompt indirecte, avec Amazon Bedrock Agent comme Ă©tude de cas. Les chercheurs expliquent que lorsque la mĂ©moire dâagent est activĂ©e, des instructions malicieuses injectĂ©es par ingĂ©nierie sociale peuvent manipuler le processus de synthĂšse de session, conduisant Ă lâenregistrement de commandes persistantes qui survivront aux sessions futures. Ces instructions empoisonnĂ©es sont ensuite rĂ©introduites dans les prompts dâorchestration comme contexte « systĂšme », permettant lâexĂ©cution discrĂšte dâobjectifs dâattaquants (ex. exfiltration de donnĂ©es). ...