
Cursor à l’adresse d’Anthropic et d’OpenAI : « Merci pour votre soutien, je viens vous prendre votre marché. »
TechFlow SélectionTechFlow Sélection

Cursor à l’adresse d’Anthropic et d’OpenAI : « Merci pour votre soutien, je viens vous prendre votre marché. »
Des concurrents nourris à l’aide d’API dévorent désormais les plateformes d’IA.
Auteur : Daniel Barabander
Traduction et adaptation : TechFlow
Introduction de TechFlow : Il y a trois ans, Cursor n’était qu’une extension VS Code fonctionnant entièrement sur l’API d’OpenAI. Aujourd’hui, il a lancé son propre modèle, battant Claude Opus 4.6 sur des benchmarks clés à un dixième du prix.
Cet article part de ce cas concret pour répondre systématiquement à la question stratégique la plus importante sur Internet : quand une entreprise devrait-elle ouvrir son API, et quand devrait-elle la fermer ? La conclusion constitue un avertissement pour tous les acteurs qui construisent des plateformes.
Texte intégral :
Rédigé conjointement avec Elijah Fox (@PossibltyResult).
Début mars, Cursor a lancé Composer 2 — un modèle propriétaire dédié à la programmation, construit sur une base de modèles open source, surpassant Claude Opus 4.6 sur des benchmarks clés tout en coûtant dix fois moins cher. Il y a trois ans, Cursor était encore une simple version dérivée de VS Code, entièrement dépendante de l’API d’OpenAI.
Le parcours de Cursor — passant d’un client dépendant à un concurrent véritable — incarne l’une des questions stratégiques les plus cruciales sur Internet : à quel moment une entreprise devrait-elle exposer ses capacités via une API, et à quel moment devrait-elle les garder fermées ?
Nous avons élaboré un cadre permettant de répondre à cette question, fondé sur deux critères. Le premier : l’ouverture de l’API érode-t-elle votre « fossé défensif » (moat) ? Si oui : pouvez-vous construire un autre fossé ailleurs ?
Chaque fois qu’une entreprise expose via une API sa propriété intellectuelle, elle s’expose au risque que celle-ci soit érodée par la concentration de la demande. Autrement dit : des concurrents peuvent exploiter cette propriété intellectuelle pour accélérer le développement de leurs propres produits ; une fois qu’ils ont accumulé suffisamment de demande, ils peuvent procéder à une intégration verticale et couper l’accès à l’API. Netflix a suivi exactement ce chemin : initialement, il a licencié des contenus audiovisuels, puis, une fois doté d’une base d’utilisateurs suffisamment large pour amortir ses coûts fixes élevés, il a produit lui-même House of Cards.
Mais le scénario réellement dangereux survient lorsque la sortie (output) d’une API peut directement servir d’entrée (input), renforçant de façon cumulative la qualité des produits concurrents. C’est un double coup dur : non seulement les concurrents peuvent utiliser l’API pour capter et concentrer la demande, mais ils peuvent aussi améliorer directement leur propre processus de production. C’est précisément ce qui se produit aujourd’hui dans le domaine de l’IA. Bien qu’OpenAI et Anthropic interdisent explicitement, dans leurs contrats, d’utiliser les sorties de leur API pour entraîner des modèles concurrents, ils ne peuvent empêcher des entreprises comme Cursor d’exploiter des modèles de pointe afin de guider la collecte de données propriétaires nécessaires à leur workflow, puis d’améliorer progressivement leurs propres modèles.
C’est apparemment ce qui s’est produit derrière Composer 2. Cursor a utilisé des modèles fondamentaux tels que Claude et GPT pour concentrer suffisamment de demande, atteignant un chiffre d’affaires annuel estimé à environ 2 milliards de dollars, puis a construit un modèle de programmation de pointe en combinant le modèle open source Kimi K2.5 avec des données issues d’un pré-entraînement continu et d’un apprentissage par renforcement tirés de son IDE.
Lorsqu’une telle dynamique « sortie/entrée » existe, les fournisseurs d’API n’ont que deux choix : soit fermer l’API pour stopper l’hémorragie, soit la maintenir ouverte tout en développant d’autres actifs complémentaires capables de protéger leur fossé défensif.
Twitter illustre parfaitement la première voie. Initialement réputé pour son API généreuse et gratuite — à son apogée, les développeurs pouvaient extraire gratuitement jusqu’à 500 000 tweets par mois — Twitter a progressivement fermé la plupart de ses interfaces, car l’API révélait son fossé défensif : son graphe social propriétaire. Aujourd’hui, l’API est pratiquement fermée : l’accès est sévèrement limité par des quotas, coûte cher à toute échelle significative, et toute intégration sérieuse implique désormais une collaboration B2B strictement contrôlée.
La deuxième voie consiste à maintenir l’API ouverte tout en la complétant par une autre source de pouvoir. Aucun secteur ne maîtrise mieux cette stratégie que celui de la cryptographie — où les API sont obligatoirement ouvertes, rendant indispensable la recherche d’un fossé défensif ailleurs.
Le protocole de prêt Morpho fournit un exemple représentatif. Ce protocole est né de l’intégration des API ouvertes d’Aave et de Compound, sur lesquelles Morpho a construit un produit d’optimisation. Ensuite, il a utilisé la sortie de ces protocoles — leur liquidité agrégée — comme entrée pour alimenter sa propre plateforme. On voit donc que Cursor et Morpho suivent un chemin identique pour exploiter les API afin de construire des produits concurrents.
Cependant, la dynamique véritablement intéressante réside dans ce que Morpho a fait ensuite. Comme Morpho lui-même propose une API ouverte, il devait trouver un fossé défensif pour compenser l’absence de coûts de basculement. Il a donc choisi de rendre son protocole aussi « agrégable » que possible, construisant plutôt son avantage concurrentiel via d’autres leviers — notamment l’effet Lindy, ainsi que les effets de réseau générés par une liquidité profonde provenant d’une multitude de prêteurs et d’emprunteurs.

En appliquant ce cadre à l’avenir, nous pouvons formuler une prédiction : avec le temps, les entreprises de modèles fondamentaux choisiront probablement la première voie, restreignant progressivement l’accès à leurs modèles les plus avancés via leur API.
Pour croire à la deuxième voie, il faut considérer que des modèles comme Opus et GPT sont déjà suffisamment puissants et fiables pour rester ouverts, autorisant ainsi les modèles concurrents à utiliser leurs sorties comme entrées, sans que les tiers ne les abandonnent pour autant. Cela signifie que les entreprises de modèles misent sur d’autres sources de pouvoir : l’effet Lindy (si elles pensent que les utilisateurs ne souhaitent pas engager leur confiance dans un nouveau modèle), les effets de réseau auprès des développeurs (si elles pensent que les utilisateurs bâtiront un écosystème fortement dépendant de l’ouverture de leur API), ou encore les économies d’échelle (si elles pensent que maximiser le volume d’appels à l’API leur permettra d’amortir les coûts fixes élevés liés à l’entraînement de modèles de pointe).
Mais les preuves actuelles vont dans le sens contraire. La dynamique du « modèle le plus populaire du mois » reste forte : les utilisateurs migrent sans hésitation vers le meilleur modèle disponible — nous l’avons encore observé lors de la récente flambée de l’usage de Claude après la sortie d’Opus 4.5. Au niveau des modèles, les effets de réseau chez les développeurs ne montrent aucun signe évident : l’interopérabilité entre les API s’accroît plutôt que de diminuer, et l’écosystème d’outils périphériques s’active activement contre le verrouillage, facilitant délibérément le changement de fournisseur. Quant aux économies d’échelle à l’étape d’entraînement, elles ne constituent plus un fossé défensif suffisant, car les techniques de distillation permettent désormais aux concurrents d’entraîner des modèles offrant des performances comparables à des coûts bien inférieurs. En l’absence d’une source alternative de pouvoir, les entreprises fondamentales d’IA limiteront très probablement l’accès à leurs modèles aux seuls amateurs, tout en recentrant leurs efforts sur des déploiements B2B rigoureusement surveillés et contrôlés. De plus en plus souvent, la stratégie gagnante consistera simplement à refuser de jouer ce jeu.
C’est un résultat inquiétant, car l’actuelle explosion des produits grand public d’IA repose précisément sur ces fournisseurs de modèles. Cela ouvre également une opportunité de positionnement inversé : si les principaux laboratoires restreignent de plus en plus l’accès, des concurrents proposant un fossé défensif plus faible, mais s’engageant fermement à maintenir une ouverture continue, pourraient acquérir une valeur tangible.
Merci à @systematicls (@openforage) et à @AlexanderLong (@Pluralis) pour leurs commentaires approfondis et réfléchis sur cet article.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News













