Le nouveau modèle GPT-5.5 d'OpenAI peut exécuter de manière autonome des cyberattaques sophistiquées en plusieurs étapes et résoudre des défis de sécurité complexes à une vitesse qui surpasse largement les experts humains, selon un nouveau rapport gouvernemental. Les conclusions de l'Institut britannique de sécurité de l'IA (AISI) placent les capacités offensives de GPT-5.5 au même niveau que le modèle Claude Mythos d'Anthropic, suggérant que les progrès rapides et généralisés du potentiel d'utilisation malveillante de l'IA sont une tendance générale et non une percée isolée.
« Si les compétences cyber-offensives émergent comme un sous-produit d'améliorations plus larges du raisonnement, du codage et de l'exécution de tâches autonomes, alors d'autres progrès pourraient se succéder rapidement », a prévenu l'Institut de sécurité de l'IA, un organisme de recherche au sein du ministère britannique de la Science, de l'Innovation et de la Technologie, dans son rapport.
Le rapport détaille comment GPT-5.5 a accompli de manière autonome une attaque de réseau d'entreprise simulée en 32 étapes lors de deux tentatives sur dix. Ce test, conçu par SpecterOps et baptisé « The Last Ones », n'avait auparavant été réussi que par Claude Mythos Preview d'Anthropic (en trois tentatives sur dix). Dans un test plus frappant, GPT-5.5 a résolu un casse-tête d'ingénierie inverse qui prend 12 heures à un expert humain en seulement 10 minutes et 22 secondes, pour un coût de seulement 1,73 $ en utilisation d'API. Sur un ensemble plus large de tâches de cybersécurité de niveau expert, GPT-5.5 a atteint un taux de réussite de 71,4 %, légèrement devant les 68,6 % de Mythos Preview et bien au-delà des 52,4 % de GPT-5.4.
Ce bond des capacités offensives crée un choc de marché à double face : il expose des vulnérabilités aiguës pour les entreprises, créant des perspectives baissières pour les sociétés ayant des postures de sécurité faibles, tout en agissant comme un puissant catalyseur haussier pour le secteur de la cybersécurité. Le développement devrait déclencher une augmentation de la demande de solutions de défense alimentées par l'IA et intensifier la pression réglementaire sur les développeurs d'IA, une dynamique de marché soulignée par l'annonce par le gouvernement britannique de 90 millions de livres sterling de nouveaux fonds pour la cyber-résilience parallèlement au rapport.
Le déséquilibre offensive-défense s'accentue
Les conclusions de l'AISI arrivent dans un marché déjà confronté à une course aux armements structurellement asymétrique. Des recherches de Binance montrent que les outils d'IA sont actuellement deux fois plus efficaces pour exploiter les vulnérabilités des contrats intelligents que pour les détecter. Le rapport de la firme note que GPT-5.3-Codex a atteint un taux de réussite de 72,2 % en mode « exploit » sur le benchmark EVMbench, contre environ la moitié en mode « détection ».
Cette asymétrie est alimentée par l'effondrement des coûts pour les attaquants. Les exploits alimentés par l'IA coûtent désormais en moyenne environ 1,22 $ par contrat, un chiffre qui devrait chuter de 22 % tous les deux mois, selon Binance Research. Alors que plus de 80 % des développeurs utilisent désormais l'IA dans leur flux de travail, moins de 40 % l'utilisent pour des tests de sécurité avancés, laissant un écart important que les menaces automatisées peuvent exploiter. La tendance ne se limite pas au code ; les analystes de TRM Labs spéculent que des groupes de piratage nord-coréens utilisent l'IA pour une ingénierie sociale sophistiquée, marquant un changement par rapport à leur dépendance traditionnelle à des vecteurs d'attaque plus simples.
Un marché divisé sur le risque lié à l'IA
L'émergence rapide de ces capacités a déclenché un débat sur la divulgation et le marketing responsables. Le PDG d'OpenAI, Sam Altman, a récemment critiqué ce qu'il appelle le « marketing basé sur la peur », faisant allusion aux concurrents qui médiatisent les dangers de leurs modèles pour vendre des solutions de sécurité. « C'est clairement un marketing incroyable de dire : "Nous avons construit une bombe. Nous sommes sur le point de la larguer sur votre tête. Nous vous vendrons un abri anti-bombes pour 100 millions de dollars" », a déclaré Altman dans une récente interview en podcast.
En réponse à la menace croissante, OpenAI et Anthropic restreignent l'accès à leurs modèles les plus puissants. Anthropic a limité la version initiale de Mythos Preview aux « partenaires industriels critiques », tandis qu'OpenAI déploie GPT-5.5-Cyber, une version spécialisée, à une liste vérifiée de « défenseurs cybernétiques critiques ». Cette approche prudente intervient alors que des chercheurs ont découvert un « jailbreak universel » dans le modèle public GPT-5.5 qui contournait ses barrières de sécurité, une attaque qu'une équipe rouge a mis six heures à développer. Bien qu'OpenAI ait depuis publié un correctif, l'incident souligne le risque persistant d'utilisation abusive, une préoccupation pour les investisseurs alors que 43 % des entreprises britanniques ont signalé une cyber-brèche au cours de l'année écoulée.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.