TechFlow, 2 décembre – Selon un article de Decrypt, une récente étude d'Anthropic révèle que les meilleurs modèles d'intelligence artificielle sont désormais capables de rivaliser avec des pirates humains. Lors de tests, trois modèles, dont Claude Opus et GPT-5, ont réussi à reproduire 207 des 405 vulnérabilités historiques connues dans des contrats intelligents, simulant le vol de fonds d'une valeur de 550 millions de dollars. Ces modèles ont également identifié des failles représentant 4,6 millions de dollars dans des contrats déployés après la date limite de leurs données d'entraînement, découvrant deux vulnérabilités zéro-day inédites sur la Binance Smart Chain. Des experts en sécurité mettent en garde contre l’extensibilité facile de ces attaques, étant donné que de nombreuses vulnérabilités sont publiques et que les systèmes d’IA peuvent automatiser les attaques 24 heures sur 24. Anthropic recommande aux développeurs d’intégrer des outils automatisés dans leurs processus de sécurité afin d’assurer une amélioration simultanée des capacités défensives face aux capacités offensives.
Dédié à des analyses Web3 approfondies
Je veux contribuer
Demande de reportage
Avertissement : tout le contenu de ce site ne constitue pas un conseil en investissement et aucun service de signal ou d’incitation au trading n’est fourni. Conformément à l’avis des dix ministères, dont la Banque populaire de Chine, sur la prévention des risques liés au trading de cryptomonnaies, veuillez rester vigilants face aux risques. Contact : support@techflowpost.com ICP n° 琼ICP备2022009338号




