
Entretien avec Tim Gong, associé chez SIG : L'agent IA n'est pas un outil, mais une nouvelle espèce collaborant avec les humains
TechFlow SélectionTechFlow Sélection

Entretien avec Tim Gong, associé chez SIG : L'agent IA n'est pas un outil, mais une nouvelle espèce collaborant avec les humains
La collaboration entre des personnes créatives et des machines sera l'état de travail dominant à l'avenir.
Intervenants :
Wang Feng : Fondateur de Bluehole Interactive, initiateur de Mars Finance et d'Element
Tim Gong : Associé fondateur de SIG Chine, président de ByteTrade
Éditorial : Le jour du Nouvel An chinois 2023, Wang Feng a eu un échange avec Tim Gong sur le classement de l'information, l'entropie, les blockchains publiques et l'avenir du Web3 (lien : Dialogue de Wang Feng avec Tim Gong à la veille du Nouvel An : À propos du tri de l’information, de l’entropie et du lendemain du Web3). Cette conversation remonte désormais à un an. Depuis, ChatGPT connaît un succès fulgurant, et les LLMs ont profondément transformé la production et la diffusion de l’information. Quelles sont les mises à jour cognitives du Dr Tim Gong ? Quel travail son entreprise ByteTrade a-t-elle accompli entre-temps ? À la veille de Noël, Wang Feng s’entretient à nouveau avec Tim Gong.
En juin 2022, SIG a annoncé qu’il menait une levée de fonds de 40 millions de dollars pour ByteTrade, plateforme logicielle de base pour des applications Web3 d’information basée à Singapour. Tim Gong, associé fondateur de SIG Chine, en est devenu président. Diplômé en physique de l’Université Jiaotong de Shanghai, il détient un doctorat en génie électronique de l’Université de Princeton. SIG a été le premier investisseur de ByteDance et reste son actionnaire majoritaire.
Lors de leur discussion à la veille du Nouvel An dernier, Wang Feng et Tim Gong avaient exploré la question « Pourquoi avons-nous besoin d’une diffusion décentralisée de l’information ? », autrement dit ce que l’on appelle couramment le Web3. Peu après, OpenAI lançait ChatGPT. Au cours de cette dernière année, les LLMs ont profondément bouleversé la création et la distribution de l’information. De nombreuses entreprises investies par SIG dans les domaines du Web3, du cloud computing ou de l’IA ont saisi ces opportunités pour ajuster rapidement leurs orientations produits. Voyons quelles sont les mises à jour apportées par Tim Gong au fil de cette année.
Voici l’intégralité du dialogue entre Wang Feng et Tim Gong :
1. De nombreux entrepreneurs et investisseurs parlent aujourd’hui de produits et d’entreprises « AI native ». Qu’entendez-vous par là ?
Une définition courante serait celle d’un produit qui ne fonctionne pas sans intelligence artificielle. Par exemple, des outils comme Copilot ne relèvent probablement pas pleinement de l’« AI native » : Google Search, Microsoft Office ou GitHub Codespaces restent très utiles sans IA, qui améliore simplement l’expérience de manière incrémentale.
En revanche, un produit tel qu’un agent IA, qui n’exige de l’utilisateur que des interactions en langage naturel et délègue à l’IA la compréhension, la planification, le raisonnement et l’exécution complète de tâches, est véritablement « AI native ». Un agent IA n’est pas un simple outil, mais une nouvelle espèce collaborative entre humains et machines.
Du paradigme « l’humain cherche l’information » (représenté par Google) vers « l’information trouve l’humain » (exemplifié par ByteDance), puis vers un « agent IA personnel » aidant à produire et consommer l’information : nous continuons d’inventer de nouvelles méthodes pour réaliser une réduction d’entropie.
2. En tant que nouvelle espèce, les agents IA doivent-ils remplacer les humains ?
Absolument pas. Je repense à une récente remarque du professeur Zeng Ming : « La collaboration entre des individus créatifs et des machines sera l’état dominant du travail à venir. »
Actuellement, la définition du terme « agent IA » est assez large. Toute application dotant un grand modèle de connaissances, de mémoire, de perceptions (« yeux et oreilles ») et de capacités d’action (« mains ») peut être considérée comme un agent. Cela inclut aussi les extensions directes de l’humain par la machine, comme des robots pilotés par de grands modèles, des dispositifs IoT intelligents personnels ou des environnements de jumeaux numériques. Pratiquement toutes les startups actuelles spécialisées dans les grands modèles se concentrent sur les agents.
3. Si les agents IA deviennent la forme principale des futurs produits, quel impact cela aura-t-il sur l’écosystème logiciel global ?
Je me souviens que le professeur Zeng Ming a dit : « L’écosystème logiciel du Web2 pousse les humains à mieux devenir des outils. » Selon moi, l’écosystème logiciel futur servira principalement les agents IA. Désormais, l’humain interagira uniquement avec ses agents IA ; tous les autres logiciels n’auront plus de lien direct avec lui. Les agents, ou « robots », pourront vous aider à obtenir de l’information, à gagner de l’argent (via le travail ou le trading), à apprendre ou même à socialiser. Votre agent personnel sera votre compagnon le plus fiable et utile ; vous n’aurez qu’à interagir avec lui.
Par exemple, la « prompt engineering » (ingénierie des prompts), très populaire aujourd’hui dans le domaine des grands modèles, ainsi que des techniques comme RAG — qui enrichit le contexte des prompts via des bases de connaissances privées — visent précisément à servir les agents IA. Voilà ce qu’est l’« AI native » au niveau des logiciels fondamentaux.
Récemment, le fondateur de Mistral AI a souligné que des grands modèles ouverts relativement petits, par exemple de 7 milliards de paramètres, pouvant être exécutés localement par les développeurs tout en offrant une « intelligence » suffisante, représenteraient probablement le point idéal pour innover autour des agents.
4. Concernant les grands modèles ouverts, certains restent sceptiques. Les multiples annonces lors de la récente OpenAI Dev Day semblent illustrer l’avantage absolu des grandes entreprises technologiques. Avec un tel avantage précoce d’OpenAI, l’avenir de l’IA sera-t-il centralisé ?
Les grands modèles open source voient leur rythme d’itération s’accélérer constamment et deviennent de plus en plus compétitifs. Il y a quelques jours, j’ai fait une recherche sur Hugging Face : rien qu’à partir de l’architecture Llama2, on compte déjà plus d’un millier de grands modèles open source retraînés ou affinés, dont les performances se rapprochent progressivement de celles d’OpenAI.
De plus, bon nombre des produits lancés par OpenAI pendant la Dev Day — affinage de modèles, bases de connaissances RAG, sorties structurées, orchestration d’applications — disposaient déjà de solides alternatives open source. On pourrait même dire qu’au niveau applicatif, OpenAI suit et imite l’innovation open source.
5. Toutefois, la recherche et l’inférence des LLM exigent d’importants GPU, impliquant des investissements massifs, ce qui favorise fortement la centralisation. Beaucoup affirment que l’écart entre les grandes entreprises riches en GPU et les startups pauvres en GPU ne cessera de s’élargir.
Je ne suis pas d’accord. Pour faire simple, le grand modèle open source le plus important aujourd’hui, Llama2, n’a-t-il pas été publié par Meta, justement une entreprise extrêmement riche en GPU ? En revanche, Google, Microsoft ou Amazon, tout aussi riches en GPU, n’ont toujours pas produit d’éléments marquants. Il est clair que les GPU ne constituent pas une condition suffisante à l’innovation. Celle-ci dépend des personnes, pas des GPU. L’open source a l’avantage unique de rassembler les talents. Et à mesure que la puissance de calcul GPU devient moins coûteuse, le facteur limitant principal du développement des modèles risque d’être de plus en plus les données — notamment les données privées — plutôt que la puissance de calcul.
D’ailleurs, les GPU ne sont même pas une condition nécessaire à l’innovation dans les grands modèles. De nombreuses unités centrales et serveurs périphériques possèdent des GPU inutilisés. Même s’ils ne conviennent pas au entraînement de modèles, ces ressources GPU décentralisées peuvent jouer un rôle crucial pour les tâches d’affinage et d’inférence, qui représentent 95 % des cas d’usage.
Mais je mise encore davantage sur des percées technologiques futures, comme l’exécution de l’inférence de grands modèles sur CPU. La société dispose d’immenses ressources inactives en termes de puissance CPU et de mémoire. De nombreux travaux de pointe explorent cette voie. Certaines entreprises de notre portefeuille, comme Second State, permettent déjà d’exécuter hors ligne de grands modèles sur des ordinateurs portables ou des appareils IoT périphériques.
J’ai hâte de voir l’avenir des applications décentralisées de grands modèles d’IA.
6. Vous avez parlé de la faisabilité des agents IA décentralisés. Mais sont-ils nécessaires ? Quels besoins des utilisateurs la décentralisation peut-elle satisfaire selon vous ?
Justement, parce que les agents IA pourraient contrôler entièrement nos entrées et sorties d’information, nous devons pouvoir leur accorder une confiance totale. Nous ne pouvons tolérer qu’ils soient contrôlés par des tiers ni subir des orientations commerciales publicitaires. Cela implique nécessairement que les agents soient privés et décentralisés. Entreprises et particuliers auront besoin d’infrastructures décentralisées.
Plus fondamentalement, les assistants robotisés personnels, les appareils IoT intelligents ou les jumeaux numériques sont par essence des ordinateurs appartenant à l’utilisateur — ils sont donc naturellement décentralisés. Chez ByteTrade, nous appelons cette infrastructure « cloud périphérique privé ».
Cependant, ces agents privés doivent collaborer. Comme les humains, chaque agent devra échanger des ressources avec d’autres agents. Ces échanges peuvent concerner la puissance de calcul (par exemple, un GPU inutilisé), des informations, des actifs ou encore des autorisations dans le monde réel (comme une licence gouvernementale permettant de trader un actif réglementé). Autant d’opportunités inédites.
7. La collaboration entre humains repose sur des relations organisationnelles. Sur quoi repose celle entre humains et machines ?
La monnaie, réseau d’échange de valeur entre humains, est la base de la civilisation commerciale moderne. Nos agents intelligents ont eux aussi besoin d’un réseau d’échange de valeur, permettant aux agents de collaborer entre eux et avec les humains.
Dans un récent entretien, la Dre Li Feifei a déclaré : « Quand nous pensons à cette technologie, nous devons placer la dignité humaine, le bien-être humain — et les emplois humains — au centre de nos réflexions. » L’interaction et la collaboration entre humains et agents IA doivent impérativement préserver la dignité humaine.
Aujourd’hui, nous disposons déjà des bases technologiques de ce réseau : la technologie de registre décentralisé basée sur la blockchain. La communauté crypto et Web3 a largement expérimenté et innové autour des systèmes de transaction pair-à-pair décentralisés. Chez ByteTrade, nous appelons « Preuve d’Intelligence » (Proof of Intelligence, PoI) cette contribution des agents quantifiable et échangeable. Cette « intelligence » est entendue au sens large : résultat du travail intellectuel humain ou machine.
8. Chaque personne devra-t-elle adopter une DID (identité décentralisée) ?
Le projet WorldCoin de Sam Altman traite de la « preuve d’humanité » (Proof of Personhood). En tant que fondateur d’OpenAI, il reconnaît que dans le monde futur de l’IA, l’humain devra prouver son identité pour rejoindre un réseau de valeur. La DID n’est qu’un moyen technique concret pour réaliser cette vision.
La Proof of Intelligence de ByteTrade intègre humains et agents IA intelligents dans un même réseau d’échange de valeur. Initialement, les scénarios clés seront probablement ceux où l’agent apprend les préférences de son utilisateur, puis interagit au nom de celui-ci avec d’autres agents. Par exemple :
-
Un agent peut être le jumeau numérique de l’utilisateur dans un monde virtuel, interagissant avec d’autres agents dans l’univers numérique.
-
Un agent peut vendre les ressources GPU inutilisées de son nœud, contre des ressources de stockage inutilisées d’un autre agent.
-
Un agent peut disposer d’un grand modèle affiné performant dans un domaine spécifique (par exemple, si son humain est expert dans ce secteur). Il peut alors « louer » ce modèle à d’autres agents.
-
Un agent peut posséder des données privées utiles à d’autres agents pour résoudre certains problèmes. Il peut vendre ces données ou fournir des services de calcul basés dessus.
-
Un agent peut exécuter un nœud de mise en jeu (staking) pour une DAO ou une blockchain publique, partageant les revenus avec d’autres agents augmentant les fonds mis en jeu.
Ces échanges entre agents incarnent concrètement la PoI. Sur la blockchain, la PoI peut prendre diverses formes : les ressources de calcul homogènes peuvent être des jetons fongibles (fungible tokens), tandis que des données ou algorithmes uniques peuvent être des NFT. La tarification de cette intelligence sera assurée par des réseaux RFQ décentralisés (comme Otomic) ou des places de marché NFT (comme Element).
9. Évidemment, une autre force puissante poussant à la centralisation de l’IA provient des gouvernements. Qu’ils soient chinois ou américains, les acteurs de l’industrie de l’intelligence artificielle savent que les gouvernements chinois et américains tentent de « réguler » les grands modèles. Dans les cercles d’investissement, beaucoup craignent que cette régulation nuise à l’innovation. Qu’en pensez-vous ?
Je reconnais que les grands modèles, voire l’AGI, présentent des risques réels de dommages sociaux. Mais la solution réside dans l’innovation technologique et l’autorégulation sectorielle. Certes, les grands modèles peuvent produire de fausses nouvelles, mais ils peuvent aussi les détecter. Chaque agent peut juger indépendamment de la véracité d’une information, et les résultats générés peuvent être enregistrés sous forme de NFT sur la blockchain. Par exemple, si l’agent d’A utilise le modèle de B et les données de A pour créer une vidéo réaliste, A publiera simultanément un NFT attestant de l’origine de cette vidéo. Toute personne voyant la vidéo pourra alors en tracer la source.
Si différents agents divergent sur la véracité d’une information, la PoI offre un excellent mécanisme pour que la communauté parvienne à un consensus.
L’initiative « Community Notes » d’Elon Musk sur X, qui permet aux utilisateurs de voter sur le contenu, s’est révélée très réussie. Mais les luttes internes au conseil d’administration d’OpenAI montrent aussi que des votes sans enjeu économique (no skin in the game) sont dangereux et facilement manipulables.
Les agents IA peuvent voter à grande échelle sur la véracité du contenu. La PoI constitue un mécanisme économique permettant aux agents — et aux humains qu’ils représentent — de payer un coût pour voter, c’est-à-dire d’avoir un « skin in the game ». J’attends avec impatience les projets innovants dans cette direction !
10. Parlons maintenant des startups. Votre entreprise ByteTrade, dont vous êtes président, a-t-elle déjà commencé à mettre cela en œuvre ?
Oui. ByteTrade a été créée l’an dernier précisément pour connecter les ressources informatiques de chacun, construisant ainsi un « cloud personnel » décentralisé. Ce projet ne diffère guère de ce que nous décrivons aujourd’hui avec les agents. La principale évolution de l’année passée tient à la puissance accrue de l’IA, qui a fait grimper en flèche les cas d’usage et la demande pour les agents IA. Concernant ByteTrade, nous annoncerons progressivement plusieurs modules produits l’année prochaine.
-
Terminus OS est notre produit de cloud personnel. Il fournit une plateforme informatique décentralisée permettant à chacun d’exécuter des grands modèles open source et des agents IA.
-
Terminus inclura des applications essentielles préinstallées, notamment des applications financières ou blockchain nécessitant une haute sécurité : portefeuille, DID pour l’authentification d’identité, etc.
-
Le Terminus Marketplace est un marché d’applications décentralisé. ByteTrade et des développeurs tiers peuvent y publier des applications : agents IA, moteurs de recommandation de contenu, robots de trading automatique, etc.
-
Otomic est notre réseau de transactions basé sur le RFQ. Principalement utilisé par des robots opérant dans Terminus, ce mécanisme RFQ décentralisé permet d’échanger presque tous les actifs numériques et dérivés cryptos ou traditionnels.
ByteTrade fournit d’une part une infrastructure décentralisée pour le développement, la publication et l’exécution de grands modèles open source et d’agents IA, et d’autre part crée, via un réseau d’échange de valeur PoI basé sur une blockchain publique, les conditions nécessaires à la collaboration entre agents IA. J’espère avoir l’occasion l’année prochaine d’approfondir ces sujets avec vous !
Excellent ! Merci Docteur Gong pour votre temps aujourd’hui. Nous attendons avec impatience les produits de ByteTrade !
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News











