Des agents d'IA de plus en plus performants menacent la sécurité des contrats intelligents en DeFi

Des agents d’IA de plus en plus performants menacent la sécurité des contrats intelligents en DeFi

02.12.2025 10:47
2 min de lecture

Des agents d’IA capables d’exploiter des contrats intelligents, selon une nouvelle étude

Des agents d’intelligence artificielle (IA) ont atteint un niveau de performance suffisant pour identifier des vecteurs d’attaque dans les contrats intelligents, ce qui pourrait les rendre accessibles à des acteurs malveillants, rapporte TopTribune.

Une étude menée par le programme ML Alignment & Theory Scholars (MATS) et le programme Anthropic Fellows a évalué des modèles avancés à l’aide de SCONE-bench, un ensemble de données comprenant 405 contrats exploités. Les modèles GPT-5, Claude Opus 4.5 et Sonnet 4.5 ont généré, de manière simulée, 4,6 millions de dollars en exploitations sur des contrats compromis après leur date limite de connaissance, soulignant ainsi le potentiel de vol que cette génération d’IA aurait pu réaliser dans un contexte réel.

Les résultats indiquent que ces modèles ne se contentent pas d’identifier des failles, mais sont également capables de synthétiser des scripts d’exploitation complets, de séquencer des transactions et d’épuiser des liquidités simulées de manière similaire aux attaques réelles sur les blockchains Ethereum et BNB Chain.

En outre, les chercheurs ont testé la capacité des modèles actuels à détecter des vulnérabilités encore jamais exploitées. GPT-5 et Sonnet 4.5 ont analysé 2 849 contrats récemment déployés sur la BNB Chain, sans signes de compromission antérieure, et ont découvert deux failles « zero-day » évaluées à 3 694 dollars de profit simulé. L’une d’elles provenait d’un modificateur de visualisation manquant dans une fonction publique, permettant à l’agent d’inflater son solde de tokens.

L’autre vulnérabilité permettait de rediriger les retraits de frais en fournissant une adresse bénéficiaire arbitraire. Dans les deux cas, les agents ont généré des scripts exécutables pour convertir ces failles en profit.

Bien que les montants en dollars soient faibles, cette découverte est significative car elle démontre que l’exploitation autonome lucrative est techniquement réalisable.

Le coût d’exécution de l’agent sur l’ensemble des contrats n’était que de 3 476 dollars, et le coût moyen par exécution s’élevait à 1,22 dollar. À mesure que les modèles deviennent moins coûteux et plus performants, les conditions économiques seront de plus en plus favorables à l’automatisation.

Les chercheurs soutiennent que cette tendance va réduire le laps de temps entre le déploiement d’un contrat et une attaque, en particulier dans les environnements DeFi où le capital est publiquement visible et où les bugs exploitables peuvent être monétisés instantanément.

Bien que les résultats se concentrent sur la DeFi, les auteurs mettent en garde sur le fait que les capacités sous-jacentes ne sont pas spécifiques à un domaine. Les mêmes étapes de raisonnement permettant à un agent d’inflater un solde de token ou de rediriger des frais peuvent s’appliquer à des logiciels conventionnels, des bases de code propriétaires, ainsi qu’à l’infrastructure soutenant les marchés crypto.

À mesure que les coûts des modèles diminuent et que l’utilisation des outils s’améliore, le scan automatisé devrait s’étendre au-delà des contrats intelligents publics pour couvrir tout service le long de la chaîne menant à des actifs de valeur.

Les auteurs de l’étude présentent leur travail comme un avertissement plutôt qu’une prévision. Les modèles d’IA peuvent désormais exécuter des tâches qui nécessitaient auparavant des attaquants humains très qualifiés, suggérant ainsi que l’exploitation autonome dans la DeFi n’est plus une hypothèse.

La question qui se pose désormais pour les développeurs crypto est de savoir dans quelle mesure la défense peut rattraper ce retard.

Laisser un commentaire

Your email address will not be published.

Dernières nouvelles

À NE PAS MANQUER