
Ancien PDG de Google Schmidt : L'IA, comme l'électricité et le feu, décidera des 100 prochaines années en cette décennie
TechFlow SélectionTechFlow Sélection

Ancien PDG de Google Schmidt : L'IA, comme l'électricité et le feu, décidera des 100 prochaines années en cette décennie
Celui qui boucle la boucle en premier remporte l'avenir.
Source : AI Deep Research Institute
En 2025, le monde de l'IA est déchiré par une tension invisible :
D'un côté, l'explosion du nombre de paramètres des modèles ; de l'autre, la limite des ressources système.
Tout le monde se demande : qui est le plus puissant entre GPT-5, Claude 4 et Gemini 2.5 ? Mais lors d'une conférence publique le 20 septembre 2025, Eric Schmidt, ancien PDG de Google, a formulé une observation plus profonde :
“L'arrivée de l'IA équivaut, dans l'histoire humaine, à l'invention du feu ou de l'électricité. Et les 10 prochaines années détermineront la configuration des 100 années à venir.”
Il ne parle pas des performances des modèles ni de la proximité de l'AGI, mais plutôt de ceci :
L'IA ne sert plus simplement à améliorer l'efficacité des outils, elle redéfinit entièrement la manière dont fonctionne le business.
Parallèlement, lors d'une discussion au sein de l'illustre fonds d'investissement technologique a16z, l'analyste spécialisé dans les semi-conducteurs Dylan Patel a souligné :
“Pour exagérer, se procurer des GPU aujourd'hui revient presque à acheter de la drogue : il faut passer par des contacts, chercher des filières, faire la queue pour obtenir un quota. Mais ce n'est pas là l'essentiel. La véritable compétition réside dans la capacité à construire un système complet capable de supporter l'IA.”
Les deux points de vue convergent vers une même tendance :
-
La limite n’est pas dans les paramètres, mais dans l’électricité ;
-
La barrière protectrice n’est plus le modèle, mais la plateforme ;
-
L’objectif n’est pas l’AGI, mais la mise en œuvre concrète.
Si ces trois dernières années ont été dominées par l’explosion des capacités de l’IA,
alors les dix prochaines seront celles de la construction des infrastructures.
Première partie|L'IA n'est plus une simple mise à niveau d'outil, mais une restructuration systémique
Lors de cet échange, Eric Schmidt a été clair dès le départ :
“L'arrivée de l'IA occupe dans l'histoire humaine une place comparable à celle de l'invention du feu ou de l'électricité.”
Il ne cherche pas à vanter l'intelligence de l'IA, mais à rappeler que nos façons habituelles de travailler, de gérer et de générer des profits pourraient être radicalement transformées.
Il ne s'agit plus seulement d'utiliser l'IA pour écrire plus vite, mais de laisser l'IA décider comment on écrit.
Schmidt affirme que les meilleurs outils d'IA d'aujourd'hui ne sont plus de simples assistants, mais deviennent progressivement :
Une nouvelle infrastructure fondamentale, comme le réseau électrique, intégrée par défaut à toutes les organisations.
Cette seule phrase bouleverse complètement la perception qu'on avait eue de l'IA ces dernières années.
Autrement dit, il ne s'agit plus d'améliorer les compétences individuelles ou l'efficacité d'une équipe, mais d'un changement radical dans le fonctionnement même des organisations :
-
Le processus décisionnel change, avec l'IA participant activement à la réflexion ;
-
L'écriture, la programmation, le service client, la comptabilité disposent désormais tous d'un partenaire IA ;
-
L'entrée des données, l'évaluation des résultats et les mécanismes de retour sont tous repensés autour de l'IA.
Ce changement organisationnel global a fait comprendre à Schmidt qu’il ne fallait plus définir au préalable des procédures détaillées, mais permettre à l’IA de s’adapter et de s’optimiser progressivement en situation réelle.
Selon lui, plusieurs startups auxquelles il participe adoptent déjà cette méthode : plutôt que de concevoir un plan complet en amont, elles impliquent directement l'IA dans le travail et ajustent continuellement le système en pratique.
Ce qu'il expose donc, ce n'est pas que les modèles sont devenus plus puissants, mais que les organisations doivent choisir de basculer vers une forme nouvelle, natively conçue pour l'IA.
L'IA est en train de passer du statut d'outil à celui d'infrastructure essentielle au fonctionnement des entreprises.
Deuxième partie|Ce qui freine le développement de l'IA, c'est l'électricité
Jusqu'ici, on pensait que le développement des capacités de l'IA serait limité par la technologie :
-
Performance insuffisante des puces, incapables de supporter les calculs des modèles ;
-
Algorithmes trop complexes, vitesse d'inférence trop lente.
Mais Eric Schmidt affirme que ce qui limite réellement le développement de l'IA n'est pas un paramètre technique, mais bien l'approvisionnement en électricité.
Il cite un chiffre précis :
“D'ici 2030, les États-Unis devront produire 92 GW supplémentaires d'électricité pour répondre aux besoins des centres de données.”
Quelle est l'échelle de ce chiffre ?
Un réacteur nucléaire de grande taille produit environ 1 à 1,5 GW.
92 GW représentent donc l'équivalent de dizaines de centrales nucléaires. Or, actuellement, il n'y a pratiquement aucune centrale nucléaire en construction aux États-Unis.
Cela signifie que le problème futur ne sera pas un manque de technologie avancée dans les modèles, mais bien l'incapacité de l'approvisionnement électrique à suivre les besoins d'entraînement.
Schmidt a même donné un exemple surprenant devant le Congrès : il pourrait devenir nécessaire d'entraîner les modèles américains à l'étranger, par exemple dans des installations électriques situées au Moyen-Orient.

(Sam Altman vient de publier un blog : « Les possibilités infinies de l'ère de l'intelligence »)
Cette frénésie autour de la consommation d'énergie n'est pas exagérée. Le 23 septembre, Sam Altman, PDG d'OpenAI, a publié un billet proposant une direction encore plus radicale : nous souhaitons construire une usine capable d'ajouter chaque semaine 1 GW de puissance de calcul dédiée à l'IA, une consommation électrique équivalente à celle d'une ville entière.
Il précise clairement que cela exigera des percées coordonnées dans plusieurs domaines : puces, électricité, robots, construction.
Pour reprendre ses mots : “Tout commence par le calcul.”
Cet objectif d'Altman n'est pas une vision lointaine, mais une infrastructure actuellement en cours de déploiement. C'est précisément la voie concrète qui matérialise la déclaration de Schmidt selon laquelle “l'IA deviendra un nouveau réseau électrique”.
En réalité :
L'entraînement des modèles n'est pas si coûteux en soi ; le vrai coût provient de la consommation électrique, du temps de fonctionnement et de la maintenance des équipements.
Avec la multiplication des tâches d'inférence et la complexité croissante des contenus générés (images, vidéos, textes longs), la demande énergétique des usines d'IA devient un nouveau goulot d'étranglement en matière de puissance de calcul.
Dans un autre échange, Dylan Patel a également mentionné qu'en construisant un système d'IA, il ne faut pas seulement considérer la rapidité des puces, mais aussi la dissipation thermique, le coût de l'électricité et la stabilité. Il l'a exprimé plus crûment :
“Construire une usine d'IA ne consiste pas simplement à acheter des GPU ; il faut aussi maîtriser la gestion de l'énergie et la capacité de fonctionnement continu.”
Il ne s'agit donc pas d'un problème de puce, mais d'un problème d'approvisionnement en électricité.
Et lorsque l'électricité vient à manquer, une série de réactions en chaîne se produit :
-
Les modèles ne peuvent plus être entraînés ;
-
Le coût de l'inférence augmente ;
-
Les outils d'IA ne peuvent pas être déployés à grande échelle ;
-
Et finalement, leur mise en œuvre devient impossible.
Schmidt estime que le retard des infrastructures constitue le principal obstacle concret à la mise en œuvre de l'IA. Sans énergie suffisante, même les modèles les plus avancés restent inutilisables.
Par conséquent, le prochain champ de bataille de l'IA ne se trouve pas dans les laboratoires, mais dans les centrales électriques.
Troisième partie|Ce n'est pas qui possède des puces, mais qui sait les exploiter
Et même si le problème de l'électricité était résolu, cela ne réglerait pas tout. Êtes-vous vraiment capables de faire fonctionner ensemble ces puces, ces modèles et ces tâches ?
Beaucoup pensent qu'en obtenant des puces de pointe comme les H100 ou B200, ils ont déjà construit une usine d'IA.
Mais Dylan Patel refroidit rapidement cet enthousiasme :
“Actuellement, les GPU sont extrêmement rares. On doit envoyer des SMS partout en demandant : 'Tu as combien de stock ? À quel prix ?'”
Il ajoute ensuite :
“Mais avoir des puces ne suffit pas. L'essentiel est de savoir les faire collaborer efficacement.”
Autrement dit, la puce n'est qu'un composant. Ce qui détermine réellement si une usine d'IA peut fonctionner de façon continue, c'est la capacité à intégrer et exploiter ces puces.
Il divise cette capacité d'intégration en quatre niveaux :
-
La base de calcul : les composants matériels comme les GPU, TPU, etc. ;
-
La pile logicielle : les frameworks d'entraînement, les systèmes d'ordonnancement, les répartiteurs de tâches ;
-
Gestion du refroidissement et de l'alimentation : il ne s'agit pas seulement d'avoir de l'électricité, mais aussi de contrôler la température, la charge et le coût ;
-
Compétence technique : qui optimisera les modèles, ajustera la puissance de calcul et contrôlera les coûts.
C'est là le cœur de ce que Dylan appelle une “usine d'IA” : une usine d'IA n'est ni un modèle ni une carte unique, mais un ensemble continu de capacités d'ingénierie et d'ordonnancement.
On réalise alors qu'une usine d'IA requiert non seulement une puissance de calcul massive, mais aussi une coordination technique complexe :
-
Un tas de GPU représente la “matière première” ;
-
Le logiciel d'ordonnancement est la “salle de contrôle” ;
-
Le refroidissement et l'alimentation sont les “techniciens du bâtiment” ;
-
L'équipe d'ingénieurs est l'“équipe de maintenance”.
En résumé, l'accent a changé : on est passé de “créer des modèles” à “construire des infrastructures”.
Dylan observe un phénomène intéressant : regardez les fabricants de puces aujourd'hui, ils ne se contentent plus de vendre des cartes, mais commencent à “livrer clé en main”. Nvidia aide désormais ses clients à intégrer des serveurs, configurer des systèmes de refroidissement et monter des plateformes — devenant ainsi une plateforme à part entière.

(Source image : Reuters)
Le jour même de la publication de cet entretien, Nvidia et OpenAI ont annoncé une intention de coopération future : Nvidia fournira à OpenAI jusqu'à 10 GW de ressources en centre de données, un investissement potentiel atteignant plusieurs centaines de milliards de dollars.
Dans son communiqué, Sam Altman a prononcé une phrase qui illustre parfaitement cette logique :
L'infrastructure de calcul constituera la base de l'économie future. Nvidia ne se contente plus de vendre des cartes ou des puces, mais participe conjointement au déploiement, à la construction et à l'exploitation complète de l'usine d'IA.
Cela indique une tendance claire : ceux qui formeront un cercle vertueux ne seront pas forcément les plus intelligents, mais ceux qui comprennent le mieux comment mettre en œuvre concrètement.
C'est-à-dire :
-
Être capable de créer un modèle, c'est une chose ;
-
Être capable de le faire fonctionner de façon stable tous les jours, c'en est une autre.
L'IA n'est plus un produit qu'on achète et utilise immédiatement, mais un système d'ingénierie complexe nécessitant une exploitation continue. L'essentiel est de savoir si vous avez la capacité de l'exploiter durablement.
Quatrième partie|La diffusion des capacités de l'IA devient une tendance : où se situe désormais la compétition ?
Alors que tous se battent encore pour acquérir des compétences opérationnelles, de nouveaux changements sont déjà en marche.
Les modèles d'IA deviennent de mieux en mieux, de plus en plus intelligents, mais Eric Schmidt lance un avertissement :
“Nous ne pouvons pas empêcher la distillation des modèles. Presque toute personne ayant accès à une API peut en copier les capacités.”
Qu'est-ce que la distillation ? En termes simples :
-
Les grands modèles, bien que performants, sont trop coûteux à déployer ;
-
Des chercheurs utilisent ces grands modèles pour entraîner des modèles plus petits, qui imitent leur mode de pensée ;
-
Moins coûteux, plus rapides, précis, et difficiles à tracer.
Comme si vous ne pouviez pas copier un grand chef, mais pouviez former quelqu’un d’autre à reproduire un plat similaire à 80 % en goûtant à ses plats.
Le problème surgit alors : plus les capacités sont faciles à transférer, plus il devient difficile de les contrôler.

(Dylan Patel, analyste renommé du secteur des semi-conducteurs, spécialisé dans la recherche sur les infrastructures IA)
Dylan Patel mentionne également une tendance sectorielle :
Aujourd'hui, le coût de la distillation représente environ 1 % du coût initial d'entraînement, mais permet de reproduire 80 à 90 % des capacités du modèle d'origine.
Même si OpenAI, Google ou Anthropic protègent leurs modèles avec le plus grand soin, rien ne peut empêcher quelqu’un d’acquérir des capacités similaires via la distillation.
Auparavant, on comparait qui était le plus fort ; maintenant, on commence à s'inquiéter de savoir qui garde encore le contrôle.
Schmidt déclare dans l'entretien : les plus grands modèles ne seront jamais ouverts. En revanche, la diffusion des petits modèles est inévitable.
Il ne prône pas la fermeture, mais alerte sur une réalité : la vitesse de diffusion technologique risque d'être bien supérieure au rythme auquel la gouvernance parviendra à suivre.
Par exemple, de nombreuses équipes utilisent déjà l'API de GPT-4 pour en distiller un modèle appelé GPT-4-lite :
-
Coût faible, facile à déployer ;
-
Aucun marquage explicite à l’extérieur ;
-
Pour l'utilisateur final, l'expérience est presque identique.
Cela pose un dilemme : les capacités des modèles pourraient se diffuser comme de l’“air”; mais l’origine du modèle, l’attribution des responsabilités et les limites d’utilisation deviendront extrêmement floues.
Ce qui inquiète vraiment Schmidt, ce n’est pas que les modèles soient trop puissants, mais :
“Quand de plus en plus de modèles auront des capacités élevées, sans régulation, sans traçabilité, sans responsabilité claire, comment garantir la fiabilité de l'IA ?”
Ce phénomène n'est plus hypothétique, c'est déjà la réalité actuelle.
À mesure que la diffusion des capacités de l'IA devient une tendance irréversible, posséder un modèle avancé n'est plus une barrière protectrice. L’enjeu concurrentiel s’est déplacé vers la manière d’utiliser et de servir efficacement ces capacités.
Cinquième partie|La clé d'une plateforme, c'est qu'elle devienne plus précise à mesure qu'on l'utilise
Finalement, ce qui compte davantage que la capacité à créer un modèle, c'est : savez-vous construire une plateforme qui s'améliore avec l'usage ?
Eric Schmidt donne sa réponse :
“Les entreprises d'IA qui réussiront à l'avenir ne rivaliseront pas seulement sur les performances des modèles, mais surtout sur leur capacité d'apprentissage continu.”
En langage simple : vous ne devez pas vous contenter de livrer un produit une fois pour toutes, mais construire une plateforme qui devient plus intelligente, plus fluide et plus stable à chaque utilisation.
Il précise encore :
Le cœur d'une plateforme n'est pas ses fonctionnalités, mais sa capacité à rendre les autres dépendants d'elle.
Par exemple :
-
Le réseau électrique n'est pas utile parce qu'une ampoule s'allume, mais parce qu'il alimente toutes les ampoules ;
-
Un système d'exploitation n'est pas pertinent pour ses nombreuses fonctions, mais parce qu'il permet à de nombreuses applications de fonctionner de façon stable ;
-
Une plateforme IA, de même, ne se juge pas à un assistant intelligent isolé, mais à sa capacité d'accueillir d'autres équipes, utilisateurs et modèles, de les intégrer, d'être utilisée et renforcée.
Une plateforme IA n'est pas une simple fonctionnalité, mais un réseau de services en fonctionnement permanent.
Il conseille aux jeunes fondateurs : ne vous demandez pas seulement si votre produit est parfait. Posez-vous la question de savoir s'il a créé un cycle “utilisation → apprentissage → optimisation → réutilisation”.
Car seul un plateau capable d'apprentissage continu aura une chance de survie à long terme.
Dylan Patel ajoute que c'est d'ailleurs exactement le chemin emprunté par Nvidia. Jensen Huang, PDG depuis trente ans, ne doit pas son succès à la chance, mais à sa capacité constante à intégrer matériel et logiciel en boucle fermée : plus les clients utilisent ses produits, plus il comprend leurs besoins ; mieux il comprend les besoins, plus ses produits deviennent performants ; plus les produits sont bons, plus les clients y sont fidèles.
Un cercle vertueux se crée ainsi, où la valeur augmente avec l'utilisation.
Il ne s'agit pas d'un “pic atteint dès la sortie”, mais d'une plateforme capable de croître continuellement.
Schmidt résume très clairement : êtes-vous capable de construire un tel mécanisme de croissance ? Au départ peut-être petit, mais capable de s'adapter, de s'étendre et de se mettre à jour en permanence ?
Son jugement sur les futurs vainqueurs de l'IA est le suivant :
Peu importe le code que vous avez écrit ; ce qui compte, c'est de savoir si vous pouvez faire vivre une plateforme, et la faire devenir toujours plus forte.
Conclusion|Qui formera le premier cercle vertueux, remportera l'avenir
Eric Schmidt déclare dans l'entretien :
“L'IA est comme l'électricité et le feu : ces 10 années décideront des 100 prochaines.”
Les capacités de l'IA sont déjà prêtes, mais on ignore encore vers où aller, comment construire, comment utiliser.
L'essentiel aujourd'hui n'est pas d'attendre le prochain modèle, mais d'utiliser l'IA existante, et de bien l'utiliser. Ne passez pas votre temps à vous demander quand sortiront GPT-6 ou DeepSeek R2 ; commencez plutôt par déployer les outils actuels dans des scénarios concrets comme le service client, l'écriture ou l'analyse de données. Faites en sorte que l'IA puisse fonctionner 24 heures sur 24 de manière stable, plutôt que de briller uniquement lors des présentations.
Il ne s'agit plus d'une course pour les plus intelligents, mais d'une confrontation d'exécution.
Celui qui saura le premier sortir l'IA du laboratoire pour l'amener dans le monde réel détiendra l'initiative des dix prochaines années.
Et cette “compétition du cercle fermé” a déjà commencé aujourd'hui.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News












