TechFlow rapporte que, le 14 mars, selon une révélation du laboratoire Baleine Blanche, les modèles DeepSeek V4 et le nouveau modèle Hunyuan dirigé par Yao Shunyu devraient tous deux être lancés en avril.
La révélation indique que DeepSeek-V4, un modèle multmodal longuement affiné par Liang Wenfeng, connaîtra non seulement une amélioration significative de ses capacités en programmation (« Coding »), mais aussi une percée majeure en matière de mémoire à long terme (LTM – « long term memory »).
Récemment, OpenRouter a mis en ligne deux modèles mystérieux : Healer Alpha et Hunter Alpha, dont on soupçonne qu’il s’agit de versions préliminaires de DeepSeek V4 ; ces deux grands modèles sont directement accessibles depuis les adresses IP chinoises.
Selon leur propre présentation, Hunter Alpha est un grand modèle doté d’un trillion de paramètres et d’une fenêtre contextuelle de 1 million de tokens, spécifiquement conçu pour les flux de travail d’agents intelligents, les tâches complexes à long cycle et les appels approfondis d’outils.
Healer Alpha est un modèle d’interaction multimodale dont la fenêtre contextuelle atteint 260 000 tokens ; il perçoit nativement les entrées visuelles et audio, effectue un raisonnement intermodale et exécute des tâches complexes en plusieurs étapes de façon précise et fiable.
À l’heure de la rédaction de cet article, aucun organisme officiel ne s’est encore prononcé publiquement sur ces deux grands modèles.
Par ailleurs, toujours selon la révélation du laboratoire Baleine Blanche, Yao Shunyu, scientifique en chef de l’IA chez Tencent, lancera également en avril un nouveau modèle Hunyuan (de niveau 30 milliards de paramètres). Il s’agira du premier produit phare qu’il présentera depuis son arrivée chez Tencent en décembre dernier, suscitant une forte attente.




