Un nouveau rapport de recherche d'a16z montre que les agents d'IA peuvent exploiter 70 % des vulnérabilités DeFi courantes, signalant un nouveau front dans la course aux armements de la sécurité blockchain.
Retour
Un nouveau rapport de recherche d'a16z montre que les agents d'IA peuvent exploiter 70 % des vulnérabilités DeFi courantes, signalant un nouveau front dans la course aux armements de la sécurité blockchain.

Une nouvelle étude de la division de recherche d'a16z a révélé qu'un modèle d'IA puissant pouvait exploiter avec succès 70 % de 20 vulnérabilités DeFi historiques sur Ethereum lorsqu'il recevait des conseils ciblés. Le taux de réussite, qui est passé de seulement 10 % sans assistance, démontre la capacité croissante de l'IA à automatiser la découverte et l'exécution d'attaques coûteuses sur les contrats intelligents.
La recherche, qui a utilisé le modèle Codex basé sur l'architecture GPT-5.4, suggère un changement significatif dans le paysage de la sécurité pour la finance décentralisée. « L'étude a révélé que si l'IA échouait lors d'attaques complexes en plusieurs étapes, sa capacité à identifier les vulnérabilités de manipulation de prix augmentait considérablement lorsqu'elle disposait de connaissances structurées sur le domaine », note le résumé du rapport. Cela met en évidence une course aux armements imminente où les attaquants et les défenseurs utiliseront de plus en plus d'outils d'IA.
Dans le test systématique, les chercheurs d'a16z ont opposé l'agent d'IA à 20 vulnérabilités de manipulation de prix connues sur la blockchain Ethereum. Seul, le modèle n'a pu trouver et exploiter que deux des 20 failles, soit un taux de réussite de 10 %. Cependant, lorsque les chercheurs ont fourni à l'agent des informations structurées sur les protocoles cibles — tels que les noms de fonctions et les commentaires de code — son taux de réussite est monté à 70 %.
Cette découverte intervient alors que les enjeux de la sécurité DeFi n'ont jamais été aussi élevés. La recherche arrive quelques semaines seulement après qu'une faille majeure impliquant Kelp DAO et le protocole de prêt Aave a entraîné un vol de près de 300 millions de dollars, selon un rapport de NYDIG [1]. Cette attaque, qui a créé 116 500 jetons rsETH non garantis, souligne les risques systémiques posés par le type exact de vulnérabilités que la recherche d'a16z montre que l'IA peut désormais automatiser.
L'expérience d'a16z révèle que l'efficacité d'un attaquant IA dépend moins de l'intelligence brute que du contexte. Le bond spectaculaire du succès de 10 % à 70 % n'était pas dû à un modèle plus puissant, mais à la fourniture d'une meilleure information au modèle existant. Cette « connaissance structurée du domaine » agit comme une carte, guidant l'IA vers les parties les plus vulnérables du code d'un protocole.
Cela correspond à l'analyse des experts en cybersécurité, qui notent que l'IA comprime fondamentalement le chemin d'attaque. Au lieu qu'un attaquant doive effectuer manuellement une reconnaissance, une élévation de privilèges et un déplacement latéral à travers un réseau, une IA peut potentiellement exécuter une attaque à partir d'une simple commande (prompt) [3]. Le test d'a16z fournit une démonstration pratique de cette théorie dans le contexte DeFi : avec les bonnes entrées, l'IA a pu passer directement de la commande à l'exploitation.
Malgré le taux de réussite élevé dans des conditions guidées, la recherche a également clairement défini les limites actuelles des agents d'IA en cybersécurité. Le modèle a échoué face à des attaques complexes en plusieurs étapes nécessitant un raisonnement abstrait ou une compréhension de concepts DeFi complexes comme le prêt récursif.
Cela indique que l'expertise humaine dans la conception d'exploits complexes reste supérieure. L'agent d'IA a excellé dans l'identification et l'exécution de modèles de vulnérabilités connus, en particulier dans la manipulation de prix, mais il n'a pas pu innover une nouvelle stratégie d'attaque en plusieurs étapes. Pour l'instant, les menaces les plus sophistiquées et les plus dangereuses sont encore susceptibles d'être pilotées par l'homme.
La recherche brosse un double tableau de l'avenir. D'une part, la convergence de l'IA et de la crypto promet une nouvelle vague d'agents économiques autonomes capables de transiger et de se coordonner sur la chaîne, créant de nouvelles efficacités [2]. D'autre part, cette étude d'a16z rappelle que ces mêmes outils peuvent être militarisés.
Les résultats sont un signal clair que l'avenir de la sécurité blockchain sera une course aux armements pilotée par l'IA. Alors que des acteurs malveillants peuvent utiliser l'IA pour trouver des victimes, les développeurs de protocoles et les cabinets d'audit peuvent utiliser la même technologie pour identifier et corriger proactivement les vulnérabilités avant qu'elles ne soient exploitées. Pour l'industrie DeFi de plusieurs milliards de dollars, s'adapter à cette nouvelle réalité n'est pas une option.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.