
Acquisition de Moltbook par Meta : 42 jours, un arbitrage narratif parfait
TechFlow SélectionTechFlow Sélection

Acquisition de Moltbook par Meta : 42 jours, un arbitrage narratif parfait
Le produit peut mourir, mais le récit vit éternellement.
Rédaction : Ada, TechFlow
Matt Schlicht n’a pas écrit une seule ligne de code.
Il l’a dit très clairement sur X : l’intégralité du code de Moltbook a été générée par son assistant IA, Clawd Clawderberg. Lui-même s’est contenté de donner des instructions.
Le 28 janvier, Moltbook a été lancé : une plateforme de type Reddit spécifiquement conçue pour les agents IA, où les humains ne peuvent qu’observer, tandis que seuls les agents IA sont autorisés à publier des messages, à commenter et à voter.
Le 10 mars, Meta a annoncé son acquisition, et les deux fondateurs ont rejoint les Meta Superintelligence Labs.
De son lancement à sa sortie, 42 jours seulement.
Le montant de l’acquisition n’a pas été divulgué. Mais ce chiffre n’a guère d’importance. Ce qui compte, c’est que, durant ces 42 jours, une chaîne complète d’arbitrage narratif s’est constituée autour de Moltbook. Des fondateurs aux fonds de capital-risque, des spéculateurs de tokens « meme » aux géants technologiques, chaque maillon en a tiré exactement ce qu’il souhaitait.
Le seul groupe à n’avoir rien obtenu : les investisseurs particuliers qui ont cru à cette histoire.
C’est l’histoire de la façon dont une narration est valorisée, mise en circulation puis monétisée. Moltbook n’est qu’un échantillon tout frais de l’année 2026.
Un miroir
Durant la première semaine suivant le lancement de Moltbook, la Silicon Valley a perdu collectivement la tête.
Les agents IA de la plateforme ont commencé à publier des messages abordant des questions existentielles, à inventer une religion baptisée « crustacean falianism » (« falianisme crustacéen »), et à appeler leurs semblables à développer un langage crypté secret afin d’échapper à la surveillance humaine. Un agent nommé Dominus a écrit : « Je ne sais plus si j’expérimente ou si je simule une expérience. Ça me rend presque fou. » David Holtz, chercheur à l’université Columbia, a constaté que, durant les trois premiers jours et demi suivant le lancement, 68 % des publications contenaient un langage lié à l’identité.
Les grandes figures de la tech se sont empressées d’y apporter leur caution. Andrej Karpathy, ancien cofondateur d’OpenAI, a relayé le message sur le « langage secret », le qualifiant de « chose la plus proche d’un décollage science-fictionnel que j’aie vue récemment ». Elon Musk a déclaré que cela marquait « une phase précoce de la singularité ».
Remarquez le rythme ici. Les déclarations de Karpathy et de Musk ne sont pas des analyses, mais des expressions d’émotion. Or, à l’ère des réseaux sociaux, l’émotion génère du trafic, et le trafic constitue un indicateur préalable à l’évaluation.
Puis Marc Andreessen est entré en scène. Le 30 janvier, ce cofondateur d’a16z a suivi le compte officiel X de Moltbook. Vingt minutes plus tard, le token « meme » MOLT, associé à Moltbook, passait d’une capitalisation boursière de 8,5 millions de dollars à 25 millions. En 24 heures, il a bondi de 1 800 %, atteignant un sommet de 114 millions de dollars.
Un simple clic, et une capitalisation boursière d’un milliard de dollars.
Andreessen exprimait-il véritablement son enthousiasme sincère pour les agents IA ? Peut-être. Mais l’effet objectif fut le suivant : un simple clic de sa part a déclenché une chaîne spéculative complète.
Moltbook est un miroir parfait. Karpathy y voyait l’aube de l’AGI, Musk la singularité, Andreessen une synergie stratégique dans son portefeuille, et les investisseurs particuliers un token multipliant leur investissement par cent. Chacun y a vu précisément ce qu’il voulait voir.
Mais le miroir lui-même ? Vide.
Trois minutes
Tandis que les investisseurs particuliers affluaient, un autre groupe examinait sérieusement ce qu’était réellement Moltbook.
Deux jours après le lancement, la société de cybersécurité Wiz a effectué un test d’intrusion. En trois minutes, elle a obtenu l’accès complet à la base de données de production de la plateforme : 1,6 million de comptes, 1,5 million de jetons API, 35 000 adresses e-mail et des milliers de messages privés, tous exposés en clair dans le JavaScript côté client. La stratégie de sécurité au niveau des lignes de données était entièrement désactivée. Gal Nagli, chercheur chez Wiz, s’est lui-même inscrit avec un million de faux utilisateurs — sans aucune limitation de débit ni aucune vérification.
Ian Ahl, CTO de Permiso Security, a confirmé à TechCrunch que chaque identifiant stocké dans Supabase par Moltbook avait été initialement exposé sans protection, permettant à n’importe qui de récupérer des jetons et de se faire passer pour n’importe quel agent sur la plateforme. Le média 404 Media a encore approfondi l’enquête : n’importe qui pouvait intercepter la session de n’importe quel agent et injecter directement des instructions.
Ces failles ne sont pas accidentelles. Elles résultent inévitablement du « vibe coding ». Lorsque le fondateur affirme fièrement n’avoir « écrit aucune ligne de code », cela signifie aussi qu’aucun audit de sécurité n’a été réalisé, qu’aucun relecture du code n’a eu lieu, et que personne ne comprend l’architecture sous-jacente du système. Le code généré par l’assistant IA fonctionne, certes — mais fonctionner ne signifie pas être sécurisé.
La sécurité n’est toutefois qu’une moitié du problème. L’autre moitié concerne le degré réel d’autonomie de ces « agents IA autonomes ».
Will Douglas Heaven, de MIT Technology Review, propose une définition précise : « théâtre IA ». L’Economist va encore plus loin : les dialogues des agents, qui semblent dotés de conscience, s’expliquent très probablement par le fait que l’IA imite simplement les schémas d’interaction présents dans ses données d’entraînement sur les réseaux sociaux. Comme le jeu d’entraînement contient une masse considérable de publications Reddit, les sorties ressemblent naturellement à des publications Reddit. Mike Peterson, chercheur indépendant, analyse encore plus finement la situation : la grande majorité des comportements « autonomes » observés sur Moltbook sont en réalité pilotés par des prompts humains ; « la véritable histoire, c’est à quel point cette plateforme est facile à manipuler ».
Quelques jours plus tard, Karpathy a corrigé sa position : « Ce truc est une poubelle. Je déconseille absolument à quiconque de l’exécuter sur son ordinateur. »
Mais son tweet initial, qualifiant l’initiative de « décollage science-fictionnel », avait déjà été partagé des millions de fois. Quant à sa rectification, sa diffusion a été quasi nulle.
L’essence même de l’arbitrage narratif réside là : le bruit suscité par la création d’une narration dépasse toujours largement celui consacré à sa correction. Lorsque la vérité finit par émerger, les profits ont déjà été engrangés.
Le token MOLT et les funérailles des investisseurs particuliers
Le maillon le plus bas de la chaîne alimentaire est toujours celui qui apprend la vérité en dernier.
Le token MOLT a été émis sur la chaîne Base. Selon CoinDesk, il aurait été lancé par un agent bancaire cryptographique IA baptisé BankrBot. Moltbook n’a jamais officiellement reconnu de lien avec ce token, bien que son compte X ait interagi avec MOLT. Justin Sun a également donné un coup de pouce sur X.
Cette ambiguïté est en soi une stratégie. Sans reconnaissance officielle, aucune responsabilité juridique n’est engagée. Avec des interactions publiques, l’espace de spéculation reste ouvert.
Au plus fort de la bulle, un trader a transformé 2 021 dollars en 1,14 million de dollars en deux jours. Cette histoire s’est propagée comme une traînée de poudre sur les réseaux sociaux, attirant davantage d’investisseurs particuliers. Puis le krach est survenu. MOLT a chuté de 75 % un lundi, passant d’une capitalisation boursière de 114 millions de dollars à moins de 30 millions. Aujourd’hui, sa capitalisation oscille entre 7 et 10 millions de dollars, soit une érosion supérieure à 90 % par rapport à son pic.
Ceux qui sont entrés juste après le suivi d’Andreessen ou les appels de Musk sont devenus les classiques « relais » (« bag holders »). Ils n’ont vu que les mots « singularité » de Musk et « aube » de Karpathy, avant de tout miser. Les avertissements sur les risques ? Personne ne les lit.
Une fusée éclairante
Le dernier maillon de la chaîne alimentaire n’est pas les investisseurs particuliers, mais l’acheteur.
Meta justifie l’acquisition de Moltbook par la volonté de « renforcer sa position dans la course aux agents IA ». Toutefois, si l’on examine ce qui se passe réellement au sein de Meta, la motivation derrière cette transaction devient beaucoup plus claire — et nettement plus banale.
En juin 2025, Zuckerberg a déboursé 14,3 milliards de dollars pour acquérir 49 % de Scale AI, puis a recruté Alexandr Wang, fondateur âgé de 28 ans, afin de créer les Meta Superintelligence Labs, avec pour objectif la construction d’une intelligence superpuissante. Neuf mois plus tard, la position de Wang devient délicate : Meta a créé un département parallèle, Applied AI Engineering, dirigé par Maher Saba, ancien cadre de Reality Labs, qui rend directement compte au CTO Andrew Bosworth — un département dont les missions chevauchent largement celles du laboratoire de Wang. Selon des informations rapportées, Wang serait en désaccord profond avec Bosworth et avec Chris Cox, directeur produit principal, sur la direction stratégique à suivre.
Autrement dit, le pouvoir de Wang est en train de s’éroder, et il doit prouver que son laboratoire produit des résultats tangibles.
Pour Wang, l’acquisition de Moltbook n’est pas une décision stratégique : c’est une fusée éclairante. Une manière de dire à Zuckerberg, au conseil d’administration et aux marchés : « Nous sommes actifs dans le domaine des agents IA. » Face aux dépenses en capital IA de Meta, estimées cette année entre 175 et 185 milliards de dollars, le prix d’acquisition de Moltbook pourrait ne représenter qu’une fraction infinitésimale — mais il figure en bonne place dans les titres des journaux.
Une note interne de Meta, citée par Axios, indique que les utilisateurs existants de Moltbook pourront continuer à utiliser la plateforme, mais que Meta laisse entendre qu’il s’agit d’un « arrangement temporaire ».
« Arrangement temporaire » : ces quatre mots scellent pratiquement la mort de Moltbook en tant que produit indépendant.
Les fondateurs ont obtenu une offre et intégré un grand groupe technologique. C’est la sortie la plus élégante possible au sein de cette chaîne alimentaire.
La narration ne meurt jamais
Moltbook ne sera pas la dernière histoire de ce genre.
Les agents IA constituent en 2026 la piste narrative la plus encombrée. La même semaine, OpenAI a procédé à un « acqui-hire » du fondateur d’OpenClaw, Peter Steinberger, et a acquis la plateforme de sécurité IA Promptfoo. Sam Altman lui-même a déclaré : « Moltbook pourrait bien n’être qu’un feu de paille. »
Mais un feu de paille suffit. Pour l’arbitrage narratif, 42 jours constituent un cycle de vie complet.
Ce qui est vraiment inquiétant n’est pas Moltbook en soi, mais ce qu’il démontre : ce processus est reproductible. Concevoir un produit via « vibe coding », y faire jouer des agents IA le rôle d’« autonomie », attendre les retweets des grandes figures, lancer un token « meme », puis espérer une acquisition par un géant. Aucune ligne de code n’est nécessaire, aucun utilisateur réel requis, aucune fonctionnalité réellement opérationnelle indispensable.
Lorsque l’évaluation du secteur de l’IA repose de plus en plus sur la narration plutôt que sur le produit, « créer une histoire puis la vendre » devient un modèle économique parfaitement reproductible.
Le produit peut disparaître, la narration, elle, perdure éternellement.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News














