
Entretien récent de Marc Andreessen : DeepSeek, Unitree et la structure du pouvoir sous l'effet de l'IA
TechFlow SélectionTechFlow Sélection

Entretien récent de Marc Andreessen : DeepSeek, Unitree et la structure du pouvoir sous l'effet de l'IA
Les gagnants de l'IA à ce stade sont tous les utilisateurs, les perdants sont les entreprises disposant de modèles propriétaires.

Auteur : MD
Production : Bright Company
Récemment, le célèbre podcast américain Invest Like the Best a de nouveau interviewé Marc Andreessen, cofondateur d'Andreessen Horowitz. Lors de cet entretien, Marc et l'animateur Patrick ont approfondi les transformations majeures que l'intelligence artificielle impose à la technologie et à la géopolitique, discuté de l'IA open source DeepSeek et de sa signification dans la compétition technologique entre grandes puissances, partagé leurs vues sur l'évolution des structures de pouvoir mondiales ainsi que sur la transformation globale du secteur du capital-risque.
Bright Company a utilisé des outils d'IA pour synthétiser rapidement les points clés de cette interview. Le contenu intégral est disponible via le lien « Source originale » en bas de page.
Voici un extrait de l'interview (édité) :
À propos de DeepSeek, des gagnants et des perdants en IA
Patrick : Marc, je pense que nous devons commencer par la question essentielle. Pourrais-tu partager ton avis sur R1 de DeepSeek ?
Marc : Il y a plusieurs dimensions à cela. (Je pense que) les États-Unis restent incontestablement leaders scientifiques et technologiques en IA. La plupart des idées derrière DeepSeek proviennent de travaux menés au cours des 20 dernières années, voire étonnamment, il y a 80 ans, aux États-Unis ou en Europe. Les premières recherches sur les réseaux neuronaux remontent déjà aux universités de recherche américaines et européennes des années 1940.
Donc, du point de vue du développement des connaissances, les États-Unis conservent une avance considérable.
Mais DeepSeek a très bien appliqué ces connaissances. Ils ont également accompli quelque chose d'extraordinaire : rendre ce système accessible gratuitement au monde entier sous forme open source. C'est en réalité absolument stupéfiant, car cela inverse complètement la tendance actuelle. Vous avez des entreprises américaines comme OpenAI, qui sont fondamentalement totalement fermées.
Elon Musk, dans une partie de son action en justice contre OpenAI, exige qu'ils changent leur nom d'OpenAI à Closed AI. Initialement, OpenAI avait prévu de tout rendre open source, mais aujourd'hui tout est fermé. D'autres grands laboratoires d'IA, comme Anthropic, sont également totalement fermés. En fait, ils ont même cessé de publier des articles de recherche, traitant tout comme propriété exclusive.
L'équipe de DeepSeek, pour ses propres raisons, a concrètement tenu la promesse d'un véritable open source. Ils ont publié le code de leur modèle linguistique (appelé V3) et de leur moteur de raisonnement (appelé R1), ainsi qu'un article technique détaillé expliquant comment ils l'ont construit, offrant ainsi une feuille de route à toute personne souhaitant réaliser un travail similaire.
Il est donc désormais public. Il existe un faux discours selon lequel si vous utilisez DeepSeek, vous donnez toutes vos données aux Chinois. Cela est vrai si vous utilisez le service sur le site web de DeepSeek. Mais vous pouvez télécharger le code et l'exécuter vous-même. Prenons un exemple : Perplexity est une entreprise américaine, et vous pouvez utiliser DeepSeek R1 sur Perplexity, entièrement hébergé aux États-Unis. Microsoft et Amazon disposent désormais de versions cloud de DeepSeek ; vous pouvez l'exécuter sur leurs plateformes cloud, et manifestement ces deux entreprises sont américaines, utilisant des centres de données américains.
C'est très important. Vous pouvez maintenant télécharger ce système et en fait l'exécuter sur un matériel valant 6 000 dollars chez vous ou dans votre entreprise. Ses capacités sont comparables à celles des systèmes de pointe d'entreprises comme OpenAI ou Anthropic.
Ces entreprises ont investi d'énormes sommes pour construire leurs systèmes. Aujourd'hui, vous pouvez l'acheter pour 6 000 dollars et en avoir un contrôle total. Si vous l'exécutez vous-même, vous avez un contrôle absolu. Vous pouvez voir exactement ce qu'il fait, le modifier, et faire diverses opérations dessus.
Il possède également une fonctionnalité très performante appelée distillation. Vous pouvez compresser le grand modèle nécessitant un matériel de 6 000 dollars pour créer des versions plus petites. Des personnes en ligne ont déjà créé des versions miniaturisées et optimisées afin que vous puissiez les exécuter sur un MacBook ou un iPhone. Ces versions, bien que moins intelligentes que la version complète, restent assez intelligentes. Vous pouvez créer des versions personnalisées, spécialisées dans des domaines spécifiques, obtenues par distillation, qui excellent dans ces domaines particuliers.
C'est une avancée majeure vers la démocratisation du raisonnement massif et du modèle R1 en programmation et en sciences. Il y a six mois, tout cela était encore très ésotérique, extrêmement coûteux et propriétaire. Aujourd'hui, cela devient gratuit et disponible pour toujours pour tout le monde.
Toute grande entreprise technologique, toute entreprise internet, chaque startup — cette semaine, nous avons des dizaines, voire des centaines de startups — soit reconstruisent autour de DeepSeek, soit l'intègrent à leurs produits, soit étudient leurs technologies pour améliorer leurs propres systèmes d'IA existants.
Mark Zuckerberg de Meta a récemment déclaré que l'équipe Meta dissèque DeepSeek, s'appropriant légalement ces idées car elles sont open source, et s'assurant que la prochaine version de Llama aura au moins des capacités de raisonnement équivalentes, voire supérieures, à celles de DeepSeek. Cela pousse vraiment le monde en avant.
Deux principaux enseignements peuvent être tirés : l'IA sera omniprésente. De nombreux responsables de risques IA, spécialistes de la sécurité, régulateurs, responsables gouvernementaux, gouvernements, Union européenne, Britanniques, etc. — tous ceux qui veulent limiter et contrôler l'IA — rendent fondamentalement impossible ce qu'ils prétendent vouloir empêcher, et je pense que c'est une bonne chose. Cela correspond parfaitement à la tradition libérale d'Internet. Ensuite, cela permet une réduction des coûts de raisonnement d'un facteur 30.
Enfin, il convient peut-être de souligner que le raisonnement fonctionnera. Le raisonnement fonctionnera dans tous les domaines d'activité humaine où vous pouvez générer des réponses qui peuvent ensuite être vérifiées a posteriori par des experts techniques.
Nous aurons des IA capables de raisonnements humains et supra-humains, qui joueront un rôle crucial dans des domaines importants : codage, mathématiques, physique, chimie, biologie, économie, finance, droit et médecine.
Cela garantit fondamentalement qu'en cinq ans, chaque personne sur Terre disposera d'un avocat IA et d'un médecin IA de niveau supra-humain, disponibles à tout moment, simplement comme fonction standard sur son téléphone. Cela rendra le monde meilleur, plus sain et plus merveilleux.
Patrick : Mais c’est aussi la situation la plus instable, avec des modèles obsolètes en deux mois. De nombreuses innovations surviennent à chaque niveau technologique. Mais juste à partir de ce moment précis, en entrant dans ce nouveau paradigme, si tu écrivais une chronique sur les gagnants et les perdants parmi tous les acteurs concernés — nouveaux développeurs d’applications, développeurs logiciels existants, fournisseurs d’infrastructure comme Nvidia, entreprises de modèles open source vs closed source — qui penses-tu seront les gagnants et les perdants après la sortie de R1 ?
Marc : Si on prenait une photo « instantanée » aujourd’hui, d’un point de vue de jeu à somme nulle, les gagnants à un moment donné sont tous les utilisateurs, tous les consommateurs, chaque individu et chaque entreprise utilisant l’IA.
Certaines startups, comme celles proposant des services juridiques IA, payaient la semaine dernière un coût 30 fois supérieur à celui d’aujourd’hui.
Par exemple, pour une entreprise construisant un avocat IA, si le coût de son intrant principal diminue d’un facteur 30, c’est comme si le prix de l’essence baissait de 30 fois lorsqu’on conduit. Soudain, avec un dollar, on peut parcourir une distance 30 fois plus longue, ou utiliser cette capacité supplémentaire pour acheter davantage. Toutes ces entreprises pourront soit étendre massivement leur utilisation de l’IA dans tous ces domaines, soit offrir leurs services à moindre coût ou gratuitement. C’est donc un résultat exceptionnel pour les utilisateurs et pour le monde, sur une base fixe.
Les perdants sont les entreprises possédant des modèles propriétaires, comme OpenAI, Anthropic, etc. Vous remarquerez qu’OpenAI et Anthropic ont envoyé ces derniers jours des messages assez agressifs, presque provocateurs, expliquant pourquoi ce n’est pas leur fin. Il existe un vieux dicton en affaires et en politique : quand on explique, on a déjà perdu.
Un autre perdant potentiel est Nvidia. À ce sujet, beaucoup ont commenté, mais Nvidia fabrique les puces IA standards utilisées par les gens. Il existe d’autres options, mais Nvidia est celle utilisée par la majorité. Leur marge bénéficiaire sur les puces atteint 90 %, et le cours de leur action reflète cela. (Nvidia) est l'une des entreprises les plus valorisées au monde. Ce que l'équipe DeepSeek a fait dans leur article, c'est découvrir comment utiliser des puces moins chères, utilisant en fait toujours des puces Nvidia, mais de manière beaucoup plus efficace.
Une partie de la réduction de coût d'un facteur 30 vient du fait que vous avez besoin de moins de puces. Par ailleurs, la Chine construit sa propre chaîne d'approvisionnement en puces, certaines entreprises commencent même à utiliser des puces dérivées de Chine, ce qui constitue évidemment une menace plus fondamentale pour Nvidia. Voilà donc un instantané à un moment donné. Mais la question que tu poses suggère une autre façon de voir les choses, c'est-à-dire, dans le temps, ce que l'on veut observer, c'est l'effet d'élasticité. Satya Nadella a utilisé l'expression « paradoxe de Jevons ».
Imaginez l'essence. Si le prix de l'essence baisse fortement, alors soudain les gens conduisent davantage. Cela arrive fréquemment en planification des transports. Ainsi, vous avez une ville comme Austin, embouteillée, quelqu'un a l'idée de construire une nouvelle autoroute à côté de l'autoroute existante. Et en deux ans, la nouvelle autoroute est elle aussi saturée, voire plus difficile pour aller d'un endroit à un autre. La raison en est que la baisse du prix d'un intrant clé peut induire une hausse de la demande.
Si l'IA devient soudainement 30 fois moins chère, les gens pourraient l'utiliser 30 fois plus, ou, accessoirement, 100 fois ou même 1000 fois plus. Ce phénomène économique s'appelle l'élasticité.
Donc la baisse des prix entraîne une explosion de la demande. Je pense qu'il existe un scénario tout à fait plausible où, à l'autre bout, avec une croissance explosive de l'utilisation, DeepSeek se portera très bien. Accessoirement, OpenAI et Anthropic se porteront bien aussi, Nvidia aussi, les fabricants chinois de puces aussi.
Et vous verrez alors un effet marée, tout le secteur explosera. Nous ne faisons que commencer à comprendre comment utiliser ces technologies. Le raisonnement ne fonctionne correctement que depuis quatre mois. OpenAI n'a lancé son modèle de raisonnement o1 que quelques mois auparavant. C'est comme prendre le feu de la montagne et le donner à toute l'humanité. Et la plupart des humains n'ont pas encore utilisé le feu, mais ils le feront.
Puis, franchement, c'est aussi une vieille idée, la créativité, c'est-à-dire, bon, si vous êtes OpenAI ou une entreprise similaire, ce que vous avez fait la semaine dernière n'est plus suffisant. Mais après tout, c'est ainsi que fonctionne le monde. Vous devez devenir meilleur. Ce sont des courses. Vous devez évoluer. C'est donc aussi un puissant catalyseur poussant de nombreuses entreprises existantes à vraiment améliorer leur niveau, à devenir plus audacieuses.
…
Patrick : …, si une entreprise chinoise utilise des modèles développés aux États-Unis, modèles ayant requis d'importants investissements, puis produit cette technologie enrichissante pour le monde, c'est une chose difficile à comprendre. J'aimerais beaucoup entendre ta réaction selon ces deux angles.
Marc : Oui, il y a ici de véritables questions. Cette argumentation comporte une ironie, que vous entendez effectivement parfois. Bien sûr, l'ironie est qu'OpenAI n'a pas inventé le Transformer. L'algorithme central des grands modèles linguistiques s'appelle Transformer.
Ce n'est pas chez OpenAI qu'il a été inventé, mais chez Google. Google l'a inventé et a publié un article, puis, accessoirement, ils ne l'ont pas produit commercialement. Ils ont continué à le rechercher, mais ne l'ont pas commercialisé, estimant pour des raisons de « sécurité » que cela pourrait être dangereux. Ils l'ont donc laissé en sommeil pendant cinq ans, puis l'équipe d'OpenAI a compris, l'a récupéré et a poursuivi.
Anthropic est une filiale d'OpenAI. Anthropic n'a pas non plus inventé le Transformer. Donc, ni l'une ni l'autre de ces entreprises, ni aucun autre laboratoire américain travaillant actuellement sur les grands modèles linguistiques, ni aucun autre projet open source, n'a construit sur des éléments qu'ils ont eux-mêmes créés et développés.
Accessoirement, Google a inventé le Transformer en 2017, mais le Transformer lui-même repose sur le concept des réseaux neuronaux. L'idée des réseaux neuronaux remonte à 1943. Donc, il y a 82 ans, la publication originale des réseaux neuronaux est sortie, et le Transformer s'appuie sur 70 ans de recherche et développement, financés en grande partie par les gouvernements fédéraux et européens dans les universités de recherche.
Il existe donc une lignée très longue de pensée et de développement des connaissances, et la majeure partie des idées entrant dans tous ces systèmes n'a pas été développée par les entreprises actuelles qui les construisent. Aucune entreprise assise ici, y compris notre propre entreprise, n'a une revendication morale particulière affirmant qu'elle construit à partir de rien et qu'elle devrait en avoir un contrôle total. Ce n'est tout simplement pas vrai.
Donc, je dirais que des arguments comme celui-ci proviennent d'une frustration du moment. Accessoirement, ces arguments sont aussi sans fondement, parce que la Chine l'a déjà fait, c'est sorti, les choses se sont produites. Maintenant, il y a un débat sur le droit d'auteur. Si vous parlez à des experts du domaine, beaucoup essaient de comprendre pourquoi DeepSeek est si bon. Une théorie, non prouvée, mais que croient certains experts, est que les entreprises chinoises ont pu utiliser pour l'entraînement des données que les entreprises américaines n'ont pas utilisées.
Particulièrement étonnant, DeepSeek excelle en écriture créative. DeepSeek est probablement actuellement le meilleur IA au monde en écriture créative anglaise. C'est un peu étrange, car la langue officielle en Chine est le chinois. Bien qu'il existe d'excellents romanciers anglais chinois, on pourrait généralement penser que la meilleure écriture créative viendrait de l'Ouest. Et DeepSeek est peut-être actuellement le meilleur, ce qui est choquant.
Donc, une théorie est que DeepSeek a pu s'entraîner. Par exemple, il existe des sites appelés Libgen, qui sont essentiellement d'immenses dépôts internet remplis de livres piratés. J’utilise personnellement bien sûr pas Libgen, mais j’ai un ami qui l’utilise souvent. C’est comme un sur-ensemble de Kindle Store. Il contient tous les livres numériques, en format PDF, que vous pouvez télécharger gratuitement. C’est comme la version film du Pirate Bay.
Les laboratoires américains pourraient ne pas penser qu’ils peuvent simplement télécharger tous les livres de Libgen et s’entraîner dessus, mais peut-être que les laboratoires chinois le pensent. Il pourrait donc exister cet avantage différentiel. Cela dit, il reste un contentieux en suspens sur les droits d’auteur. Les gens doivent être prudents avec cela, car il y a un litige en suspens sur les droits d’auteur, certaines maisons d’édition souhaitant fondamentalement empêcher les entreprises d’IA générative comme OpenAI, Anthropic et DeepSeek d’utiliser leurs contenus.
On affirme que ces matériaux sont protégés par le droit d’auteur et ne peuvent pas être utilisés librement. Une autre argumentation dit fondamentalement que l’IA qui s’entraîne sur des livres ne copie pas les livres, elle lit les livres. Lire des livres est légal pour l’IA.
Vous et moi sommes autorisés à lire des livres, accessoirement. Nous pouvons emprunter des livres à la bibliothèque. Nous pouvons ramasser le livre d’un ami. Ces actions sont légales. Nous avons le droit de lire des livres, d’apprendre à partir des livres, puis de continuer notre vie quotidienne, de parler des idées que nous avons apprises dans les livres. Un autre argument est que former une IA ressemble davantage à la lecture humaine d’un livre qu’à un vol.
Puis il y a la réalité pratique : si… leur IA peut être formée sur tous les livres, et si les entreprises américaines finissent par être légalement interdites de formation sur les livres, alors les États-Unis pourraient perdre la course en IA.
D’un point de vue pratique, cela pourrait être un coup fatal, comme s’ils gagnaient et nous perdions. Il pourrait y avoir tout un imbroglio de débats. DeepSeek n’a pas révélé les données utilisées pour son entraînement. Donc, lorsque vous téléchargez DeepSeek, vous n’obtenez pas les données d’entraînement, vous obtenez ce qu’on appelle les poids. Vous obtenez donc le réseau neuronal après qu’il ait été formé sur les matériaux. Mais à partir de là, il est difficile, voire impossible, de regarder et de déduire les données d’entraînement.
Accessoirement, Anthropic et OpenAI n’ont pas non plus révélé les données utilisées pour leur entraînement. Il existe donc des spéculations intenses dans le domaine sur ce qu’il y a ou non dans les données d’entraînement d’OpenAI. Ils considèrent cela comme un secret commercial. Ils ne divulguent pas ces informations. Donc, DeepSeek chinois pourrait être différent de ces entreprises, ou pas. Ils pourraient avoir une méthode d’entraînement différente des entreprises chinoises. Nous ne savons pas.
Nous ne connaissons pas les algorithmes exacts d'OpenAI et d'Anthropic, car ils ne sont pas open source. Nous ne savons pas combien leurs algorithmes sont meilleurs ou pires que l'algorithme DeepSeek publié.
À propos du modèle fermé et du modèle ouvert
Patrick : Penses-tu que les modèles fermés en compétition, comme OpenAI, Anthropic, finiront par ressembler à Apple face à Android de Google ?
Marc : Je suis partisan d'une concurrence maximale. Accessoirement, cela correspond à mon rôle de capital-risqueur. Donc, si vous êtes fondateur d'entreprise, si je dirige une entreprise d'IA, j'ai besoin d'avoir une stratégie très spécifique, avec des avantages et des inconvénients, des compromis à faire.
En tant que capital-risqueur, je n'ai pas besoin de faire cela. Je peux faire plusieurs paris contradictoires. C'est ce que Peter Thiel appelle l'optimisme déterminé contre l'optimisme indéterminé. Les fondateurs d'entreprise, les PDG, doivent être des optimistes déterminés. Ils doivent avoir un plan et faire des choix difficiles pour réaliser ce plan. Les capital-risqueurs sont des optimistes indéterminés. Nous pouvons financer cent entreprises ayant cent plans différents, avec des hypothèses contradictoires.
L'essence de mon travail est que je n'ai pas besoin de faire le choix que tu viens de décrire. Cela me permet facilement de faire un argument philosophique, auquel je crois sincèrement, que je soutiens une concurrence maximale. Alors, allons plus loin : cela signifie que je soutiens le libre marché, la concurrence maximale et la liberté maximale.
Fondamentalement, s'il peut y avoir autant de personnes intelligentes que possible concevant autant de méthodes différentes que possible, en compétition librement sur le marché, pour voir ce qui se passe. En ce qui concerne l'IA, cela signifie que je soutiens les grands laboratoires se développant aussi vite que possible.
Je soutiens à 100 % OpenAI et Anthropic faisant tout ce qu'ils veulent, lançant tout produit qu'ils veulent, se développant aussi fort que possible. Tant qu'ils n'obtiennent pas de traitement politique privilégié, de subventions ou de soutien du gouvernement, ils devraient pouvoir faire en tant qu'entreprise tout ce qu'ils veulent.
Bien sûr, je soutiens aussi les startups. Nous finançons activement toutes sortes de startups d'IA, de toutes tailles et types. J'espère donc qu'elles se développeront, puis j'espère que l'open source se développera, en partie parce que je pense que si quelque chose devient open source, même si cela signifie que certaines entreprises basées sur un modèle commercial ne peuvent plus fonctionner, les bénéfices pour le monde et pour tout le secteur sont si grands que nous trouverons d'autres moyens de gagner de l'argent. L'IA deviendra plus omniprésente, moins chère, plus accessible. Je pense que ce sera un bon résultat.
Une autre raison cruciale de l'open source est que, sans lui, tout devient une boîte noire. Sans open source, tout devient une boîte noire possédée et contrôlée par quelques entreprises, qui finiront potentiellement par s'allier avec le gouvernement, ce sur quoi nous pourrions discuter. Mais vous avez besoin de l'open source pour pouvoir voir ce qui se passe à l'intérieur de la boîte.
Accessoirement, vous avez besoin de l'open source pour la recherche académique, donc vous avez besoin de l'open source pour l'enseignement. Ainsi, le problème précédent à l'open source était qu'il y a deux ans, il n'y avait pas encore de grands modèles linguistiques open source de base, puis Meta a publié Llama, puis Mistral en France, maintenant DeepSeek.
Mais avant l'apparition de ces modèles open source, le système universitaire traversait une crise, où les chercheurs universitaires à Stanford, au MIT ou à Berkeley n'avaient pas suffisamment de fonds pour acheter des puces Nvidia d'une valeur d'un milliard de dollars afin de participer réellement à la compétition en IA.
Donc, si vous parliez à un professeur d'informatique il y a deux ans, il serait très inquiet. Première préoccupation : mon université n'a pas assez d'argent pour participer à la compétition en IA et rester pertinente. Deuxième préoccupation : toutes les universités réunies n'ont pas assez d'argent pour rivaliser, car personne ne peut suivre la capacité de levée de fonds de ces grandes entreprises.
L'open source a permis aux universités de revenir dans la compétition. Cela signifie que si je suis professeur à Stanford, au MIT, à Berkeley ou à n'importe quelle université d'État, que ce soit à l'Université de Washington ou ailleurs, je peux désormais utiliser le code Llama, le code Mistral ou le code DeepSeek pour enseigner. Je peux faire de la recherche, je peux réellement faire des percées. Je peux publier mes résultats, permettant aux gens de vraiment comprendre ce qui se passe.
Puis, chaque nouvelle génération d'étudiants arrivant à l'université, suivant des cours d'informatique, pourra apprendre à le faire, alors que si c'était une boîte noire, ils ne pourraient pas. Nous avons besoin de l'open source comme nous avons besoin de la liberté d'expression, de la liberté académique et de la liberté de recherche.
Donc, mon modèle est fondamentalement de laisser les grandes entreprises, les petites entreprises et l'open source s'affronter. C'est ce qui s'est produit dans l'industrie informatique. Cela a bien fonctionné. C'est ce qui s'est produit dans l'industrie internet. Cela a bien fonctionné. Je crois que cela se produira en IA, et je pense que cela fonctionnera bien.
Patrick : Y a-t-il une limite, un désir maximal de vitesse d'évolution et de concurrence maximale ? Peut-être. Si je dis, nous savons que la meilleure chose est faite en Chine, ..., y a-t-il un cas où tu dis, oui, j'aspire à une évolution et une concurrence maximales, mais l'intérêt national dépasse en quelque sorte le désir d'une vitesse et d'un développement maximaux ?
Marc : Cet argument est très réel. Il est fréquemment avancé dans le domaine de l'IA. En fait, alors que nous sommes assis ici aujourd'hui, deux choses. Premièrement, il existe actuellement des restrictions sur la vente par les entreprises occidentales et américaines de puces IA de pointe à la Chine. Par exemple, Nvidia ne peut actuellement pas légalement vendre ses puces IA de pointe à la Chine. Nous vivons dans un monde où une telle décision a été prise et une telle politique mise en œuvre.
Puis le gouvernement Biden a publié un ordre exécutif, que je pense maintenant annulé, mais ils ont publié un ordre exécutif qui imposait des restrictions similaires sur les logiciels. C'est un débat très actif. Avec l'événement DeepSeek, un nouveau cycle de ce débat est en cours à Washington.
Puis, fondamentalement, quand vous entrez dans le débat politique, vous rencontrez une situation classique : vous avez une version rationnelle du débat, c'est-à-dire, du point de vue théorique, ce qui est dans l'intérêt national. Puis vous avez une version politique du débat, c'est-à-dire, bon, que fait le processus politique avec l'argument rationnel ? Disons-le ainsi : nous avons tous beaucoup d'expérience en voyant les arguments rationnels rencontrer le processus politique, et généralement ce n'est pas l'argument rationnel qui gagne. Après passage dans la machine politique, le résultat n'est généralement pas ce que vous pensiez initialement obtenir.
Puis il y a un troisième facteur, que nous devons toujours discuter, c'est-à-dire, l'influence corruptrice, en particulier des grandes entreprises. Si vous êtes une grande entreprise et que vous voyez les changements qui se produisent chez les entreprises chinoises (plus compétitives), la menace posée par ce qui se passe dans l'open source, vous essayerez bien sûr d'utiliser le gouvernement américain pour vous protéger. Peut-être que cela sert l'intérêt national, peut-être pas. Mais vous allez certainement pousser cela, que cela serve ou non l'intérêt national. C'est ce qui rend le débat complexe.
Vous ne pouvez pas vendre de puces IA de pointe à la Chine. Cela les freine certainement dans certains aspects. Il y a des choses qu'ils ne pourront pas faire. Peut-être que c'est une bonne chose, car vous avez décidé que c'est dans l'intérêt national. Mais examinons trois autres conséquences intéressantes qui en résultent.
La première conséquence est de fournir une motivation énorme aux entreprises chinoises pour concevoir comment faire les choses avec des puces moins chères. C'est une partie importante de la percée de DeepSeek, qu'ils ont trouvé comment utiliser des puces moins chères, légaleset conformes,pour faire ce que les entreprises américaines font avec des puces plus grandes. C'est aussi une raison pour laquelle c'est si bon marché. L'une des raisons est que vous pouvez l'exécuter sur un matériel valant 6 000 dollars, car ils ont consacré beaucoup de temps et d'efforts à optimiser le code pour qu'il fonctionne efficacement sur des puces moins chères non sanctionnées. Vous forcez une réponse évolutionnaire.
C'est donc la première réaction, peut-être que cela a déjà quelque peu contre-percuté. La deuxième conséquence est que vous incitez le secteur public et privé chinois à développer une industrie parallèle de puces. S'ils savent qu'ils ne peuvent pas obtenir de puces américaines, alors ils iront développer. Ils le font maintenant. Ils ont un plan national pour construire leur propre industrie des puces afin de ne plus dépendre des puces américaines.
Donc, d'un point de vue contrefactuel, peut-être qu'ils achèteraient des puces américaines. Maintenant, ils vont comprendre comment les fabriquer eux-mêmes. Peut-être qu'ils pourront le faire dans cinq ans. Mais une fois qu'ils atteignent une position où ils peuvent les fabriquer eux-mêmes, alors nous aurons un concurrent direct sur le marché mondial que nous n'aurions pas eu si nous leur avions simplement vendu des puces. Et accessoirement, à ce moment-là, nous n'aurons aucun contrôle sur leurs puces. Ils pourront en disposer comme ils veulent. Ils pourront les vendre en dessous du coût, ils pourront faire tout ce qu'ils veulent.
Comment la capacité de raisonnement IA change le secteur du VC et de l'investissement
Patrick : Comment penses-tu que tout cela affectera l'allocation du capital ? Ce qui m'intéresse le plus, c'est peut-être comment votre entreprise, Andreessen Horowitz (A16Z), sera affectée dans cinq ans. Si je considère qu'une société d'investissement est une combinaison de capacité à lever des capitaux, à faire une excellente analyse et à juger les gens, surtout en phase précoce, comment penses-tu que cette fonctionnalité changera avec l'apparition de la capacité de raisonnement « o7 » (IA) ?
Marc : J'espère que la partie analyse changera énormément. Supposons que les meilleures sociétés d'investissement au monde soient très douées pour utiliser cette technologie dans leur travail d'analyse.
Cela dit, il existe une expression « les enfants du cordonnier n'ont pas de chaussures », peut-être que les sociétés de capital-risque les plus radicales dans l'investissement
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News












