Prompt injection: principal risque pour les LLM, la défense en profondeur reste indispensable
Selon GuidePoint Security (blog), la prompt injection reste le risque de sĂ©curitĂ© n°1 pour les modĂšles de langage (LLM), car ceux-ci ne distinguent pas de façon fiable les instructions systĂšme des entrĂ©es utilisateur dans une mĂȘme fenĂȘtre de contexte. Sur le plan technique, les attaques tirent parti du traitement token-based dans un contexte unifiĂ© oĂč instructions systĂšme et requĂȘtes utilisateur sont traitĂ©es de maniĂšre Ă©quivalente. Cette faiblesse structurelle permet de dĂ©tourner le comportement de lâIA. ...