TechFlow annonce que le benchmark SMART, lancé par Manic.Trade pour évaluer les agents de trading basés sur l’IA, a officiellement pris fin le 13 mai. Ce benchmark a réalisé au total 387 évaluations, couvrant 180 participants, 46 modèles et plus de 15 familles de modèles, constituant ainsi l’évaluation transversale la plus exhaustive à ce jour d’agents de trading IA en termes de nombre de modèles testés. L’évaluation s’est principalement articulée autour de cinq dimensions : traitement des données en temps réel, collecte d’informations issues de multiples sources, analyse des marchés, prise de décision en matière de trading et gestion des risques.
Les résultats montrent que la famille Claude obtient le meilleur score avec 75,9 points, suivie de DeepSeek (74,4 points), tandis que la famille GPT ne se classe qu’en neuvième position. Au niveau des modèles individuels, Claude 4.7 Opus obtient le score moyen le plus élevé (80,8 points), suivi de DeepSeek V4 Pro (78,6 points) et de Claude 4.6 Opus (78,5 points), ce dernier ayant également décroché la seule note « S » de l’ensemble du benchmark, atteignant un score maximal de 90/100.
Il convient de noter que DeepSeek obtient un score de 15,9 dans la dimension « Market Analysis », dépassant ainsi Claude (15,4). Selon Manic.Trade, ces résultats indiquent que les écarts actuels entre les agents de trading IA ne résident pas principalement dans leur capacité à prendre des décisions de trading, mais plutôt dans des compétences plus proches de l’exécution réelle des opérations, telles que l’intégration d’informations provenant de multiples sources, le traitement de données vérifiables et la gestion des risques.
Actuellement, les utilisateurs peuvent consulter le rapport complet sur le site de Manic.Trade et tester le marché prédictif des prix cryptographiques, conçu aussi bien pour les traders humains que pour les agents IA.




