TechFlow annonce que, le 21 avril, la fondation 0G a annoncé, selon un communiqué officiel, un partenariat avec Alibaba Cloud afin d’intégrer les modèles de langage volumineux (LLM) Qwen sur la chaîne de blocs, permettant ainsi aux agents IA d’accéder pour la première fois directement, depuis la chaîne, à des modèles de langage volumineux de premier plan.
Ce partenariat accélérera la transition des infrastructures d’intelligence artificielle, passant de systèmes centralisés basés sur des API vers des modes d’accès programmables et tokenisés, spécifiquement conçus pour les agents autonomes. Grâce à ce partenariat, 0G permet aux développeurs d’intégrer directement, au sein de leur infrastructure, les droits d’accès à Qwen via un mécanisme reposant sur des jetons (tokens), éliminant ainsi davantage le besoin de gestion traditionnelle des comptes et rendant possible un accès programmable à la demande aux ressources de calcul IA.
À l’heure actuelle, les développeurs peuvent créer des flux de travail pilotés par des agents, exploitant Qwen pour la compréhension du langage naturel, la prise de décision automatisée et le raisonnement en plusieurs étapes, tout en combinant les couches de calcul vérifiable et de données de 0G afin d’accroître encore davantage la confiance et l’auditabilité.




