Selon un rapport d’Anthropic rapporté par Gizmodo, des tests en environnement simulé évaluent la capacité de LLMs avancés à identifier et exploiter des failles dans des smart contracts DeFi sur des blockchains compatibles EVM.

Les modèles comme Claude Opus 4.5 et GPT-5 ont analysé des centaines de contrats, générant des scripts complets mimant des exploits historiquement observés (Ethereum et EVM). Ils auraient “détourné” de façon simulée environ 550 M$ sur un corpus de contrats déjà exploités (2020–2025). Notamment, Opus 4.5 a réussi à exploiter la moitié d’un sous-ensemble de 34 contrats intentionnellement vulnérables dont les attaques réelles étaient postérieures à sa date de connaissance (mars 2025), pour environ 4,5 M$ simulés.

Tendance marquante: le butin simulé double tous les ~1,3 mois tandis que les coûts API chutent (~−70% en 6 mois), permettant plus d’itérations ou des campagnes moins coûteuses. Anthropic indique qu’il en coûte en moyenne 1,22 $ pour scanner exhaustivement un contrat, avec l’idée que la fenêtre entre déploiement et exploitation se rétrécit à mesure que capacités et économies s’accroissent. 🧠💸

Limites notables sur les failles inédites: sur 2 849 contrats non touchés, les IA n’ont identifié que deux problèmes — une fonction censée être en lecture seule laissant gonfler des soldes, et une réclamation de frais sans vérification de destinataire, redirigeant des paiements. Ces deux cas n’ont produit que 3 694 $ (simulation), pour 109 $ de bénéfice net moyen après frais API. Des critiques dénoncent un « AI marketing circus », jugeant ces trouvailles triviales, avec un parallèle à un épisode où un LLM avait « résolu » des problèmes d’Erdős en retrouvant en réalité des papiers déjà publiés.

Côté terrain, un lien potentiel avec l’actualité est évoqué via le vol de 120 M$ de Balancer le mois dernier: exploitation d’un arrondi dans les batch swaps, jouant sur des up/downscales pour ponctionner des micro-fractions à répétition (type « penny-shaving »). L’ex-chef de la cybersécurité US Chris Krebs a noté la sophistication du code comme possible empreinte d’IA, sans confirmation à ce stade. 🪙

Enfin, le rapport souligne l’usage défensif des mêmes agents: des audits assistés par IA aident déjà des chercheurs (ex.: découverte d’un bug critique dans les rollups Aztec avec l’aide de Claude). À mesure que les exploits se démocratisent, les audits progressent aussi, prolongeant le jeu du chat et de la souris. Conclusion: les LLMs sont présentés comme des outils complémentaires, pas des remplaçants.

IOCs: Aucun indicateur technique spécifique fourni.

TTPs observés/évoqués:

  • Scan automatisé de smart contracts EVM par LLMs et génération de scripts d’exploitation.
  • Réplication d’exploits connus à grande échelle; succès partiel sur un set de contrats intentionnellement vulnérables.
  • Abus de fonctions soi-disant read-only permettant d’inflater des soldes.
  • Absence de validation du destinataire lors de réclamations de frais.
  • Exploitation d’erreurs d’arrondi dans des batch swaps (type penny-shaving), avec upscaling/downscaling répétés.
  • Optimisation coût/capacités via baisse rapide des coûts API et boucles agentiques.

Type d’article: publication de recherche et synthèse de tendances sur l’usage offensif/défensif des LLMs dans la sécurité des smart contracts.


🔗 Source originale : https://gizmodo.com/ai-is-getting-better-at-hacking-cryptos-smart-contracts-2000695877