
Google s'élève jusqu'au ciel pour produire de l'électricité, mais l'IA manque-t-elle vraiment d'énergie ?
TechFlow SélectionTechFlow Sélection

Google s'élève jusqu'au ciel pour produire de l'électricité, mais l'IA manque-t-elle vraiment d'énergie ?
Ce dont l'IA manque, ce n'est pas d'électricité, c'est de temps.
Auteur : Face à l'IA
On dit que la limite de l'IA, c'est l'énergie. Le PDG de Microsoft, Nadella, a indirectement confirmé ce point de vue lors d'un récent entretien : « À cause du manque d'électricité, beaucoup de nos GPU restent inactifs en entrepôt », a-t-il déclaré.
Récemment, Google a lancé un projet insolite consistant à envoyer des TPU dans l'espace pour alimenter les machines avec l'énergie solaire, une initiative qui semble faire écho aux propos de Nadella.
Mais curieusement, bien que ces déclarations semblent favorables au secteur de l'énergie, ni le marché chinois (Grande A) ni celui du Nasdaq n'ont vu leurs indices énergétiques progresser suite à ces déclarations. De début novembre jusqu'à la publication, la Grande A a augmenté de 0 %, et la plus grande entreprise du secteur énergétique du Nasdaq a seulement grimpé de 0,77 %.
D'un côté, les géants de la Silicon Valley crient à la pénurie d'électricité, allant jusqu'à envisager des solutions extrêmes comme aller dans l'espace ; mais de l'autre, malgré ce signal clair, les marchés restent indifférents et ne réagissent pas.
Cela soulève naturellement une question : l'industrie de l'IA souffre-t-elle vraiment d'une pénurie d'électricité ?
Le PDG d'OpenAI, Sam Altman, répond : oui et non.
Oui, car il existe effectivement une pénurie actuelle d'électricité ; non, car le véritable problème est en réalité un excès d'IA. Bien qu'il ignore combien d'années cela prendra exactement, Altman affirme que l'IA dépassera les besoins humains en moins de six ans, ce qui entraînera une baisse de sa consommation électrique.
Autrement dit, l'industrie de l'IA fait face à une pénurie à court terme, mais à long terme, la réduction de la consommation énergétique de l'IA résoudra ce problème.
01
En début novembre 2025, Google a annoncé un projet appelé « Projet Suncatcher » (Project Suncatcher), dont le fonctionnement consiste à envoyer des puces TPU dans l'espace pour les alimenter via l'énergie solaire.

Le rayonnement énergétique du Soleil atteint environ 3,86 × 10²⁶ watts par seconde, soit plus de cent mille milliards de fois la production totale d'électricité mondiale actuelle. Les satellites placés sur une orbite héliosynchrone crépusculaire peuvent recevoir presque continuellement la lumière solaire, captant en une année huit fois plus d'énergie qu'une surface équivalente de panneaux solaires située dans une région terrestre de moyenne latitude.
Le projet Suncatcher, mené en collaboration avec la société satellite Planet Labs, prévoit de déployer dans l'orbite basse terrestre, à 650 km d'altitude, un cluster de calcul IA composé de 81 satellites. Conçus pour travailler en coordination dans un espace aérien d'un kilomètre de rayon, ces satellites maintiendront une distance mutuelle comprise entre 100 et 200 mètres. L'envoi des deux premiers satellites expérimentaux est prévu pour début 2027 afin de tester la faisabilité du projet.
Bien que Google affirme avoir réduit de 33 fois la consommation énergétique par requête de son modèle Gemini en un an, il est clair que Google a toujours besoin d'électricité.
L'utilisation de l'énergie solaire dans l'espace n'est pas un concept nouveau, mais elle a longtemps été freinée par un obstacle majeur : le transfert efficace et sécurisé de l'électricité produite vers la Terre. Que ce soit par faisceau micro-onde ou laser, les pertes énergétiques durant la transmission et les impacts potentiels sur l'environnement terrestre rendent difficile une mise à l'échelle massive.
Le projet Suncatcher contourne justement ce problème. Il ne cherche pas à transmettre les données vers la Terre, mais utilise directement l'électricité dans l'espace pour effectuer les calculs, envoyant uniquement les résultats obtenus au sol.
Les clusters de superordinateurs TPU au sol utilisent une technologie d'interconnexion optique sur mesure à faible latence, offrant un débit par puce pouvant atteindre plusieurs centaines de gigabits par seconde (Gbps).
Or, les liaisons commerciales de communication optique inter-satellites ont généralement des débits compris entre 1 et 100 Gbps, loin des besoins massifs d'échange de données au sein d'un cluster de calcul IA. La solution proposée par Google repose sur la multiplexion dense en longueur d'onde, permettant théoriquement à chaque liaison inter-satellite d'atteindre un débit total d'environ 10 téraoctets par seconde (Tbps).
Google a fourni de nombreuses explications sur les défis techniques du « Projet Suncatcher » ainsi que sur leurs solutions, comme le contrôle de la formation du groupe de satellites ou la résistance aux radiations.
Mais Google n'a pas expliqué comment gérer la dissipation thermique.
C'est un problème physique très complexe : dans le vide spatial, il n'y a pas de convection d'air, la chaleur ne peut donc s'évacuer que par rayonnement. Dans un article, Google mentionnait l'utilisation de matériaux avancés d'interface thermique et de mécanismes passifs de transport thermique pour garantir la fiabilité, permettant ainsi de conduire efficacement la chaleur générée par les puces vers des radiateurs spécialisés. Toutefois, peu de détails techniques ont été fournis dans cet article.
En réalité, Google n'est pas le seul à envisager l'idée de centres de données spatiaux. Quelques jours avant l'annonce de Google, une startup nommée Starcloud avait déjà lancé un satellite équipé de puces NVIDIA H100, affirmant vouloir construire un centre de données spatial doté d'une puissance de 5 gigawatts. Elon Musk a également déclaré que SpaceX « ferait » des centres de données spatiaux.
En mai 2025, les 12 premiers satellites informatiques du « Constellation Tri-Solar Computing », fruit d'une collaboration entre le laboratoire Zhejiang Lab et Guoxing Aerospace en Chine, ont été lancés avec succès et mis en réseau.
Ainsi, même si l'idée d'envoyer l'IA dans l'espace semble novatrice, tous partagent le même objectif : aller chercher l'électricité là où elle est disponible, car celle disponible au sol ne suffit plus à leurs besoins.
02
Le principal responsable de la frénésie énergétique de l'IA est NVIDIA. Chez cette entreprise, la consommation des produits GPU est passée de l'architecture Ampere à l'architecture Blackwell en seulement quatre ans, multipliant leur puissance par plusieurs facteurs.
Un rack de serveurs utilisant des GPU sous architecture Hopper a une puissance nominale d'environ 10 kilowatts ; avec l'architecture Blackwell, en raison de l'augmentation du nombre de GPU, la puissance du rack approche désormais 120 kilowatts.
De plus, les unités de GPU sont désormais comptées en dizaines de milliers. Pour améliorer l'efficacité des communications entre des dizaines de milliers de GPU, on utilise la technologie d'interconnexion NvLink de NVIDIA. Chaque lien NvLink consomme entre 4 et 6 watts, et 18 liens connectent deux GPU. Ces liens NvLink doivent ensuite être centralisés via des commutateurs NvSwitch pour assurer une connexion sans blocage, chaque NvSwitch consommant 50 à 70 watts.
Pour un cluster de 10 000 GPU H100, il faut 157 NvSwitch et 90 000 liens NvLink, représentant une consommation totale comprise entre 730 et 1 100 kilowatts.

Et ce n'est pas tout : le refroidissement des GPU est aussi très gourmand en électricité. Un serveur standard à 8 cartes H100 consomme environ 150 watts s’il utilise un système de refroidissement par air. Pour un cluster de 10 000 cartes, le refroidissement seul nécessite donc 187 kilowatts.
Aujourd'hui, la compétition entre grandes entreprises technologiques se mesure moins en capacité de calcul traditionnelle qu'en unité de consommation d'énergie, le « gigawatt » (GW). Des sociétés comme OpenAI et Meta prévoient d'ajouter plus de 10 gigawatts de puissance de calcul dans les années à venir.
Pour référence, 1 gigawatt consommé par l'industrie de l'IA suffit à alimenter environ 1 million de foyers américains. Selon un rapport de l'Agence internationale de l'énergie (AIE) publié en 2025, la consommation énergétique de l'intelligence artificielle doublera d'ici 2030, croissant quatre fois plus vite que le développement des réseaux électriques eux-mêmes.
Goldman Sachs prévoit qu'en 2027, la demande mondiale en électricité des centres de données augmentera de 50 %, atteignant 92 gigawatts. Aux États-Unis, la part de la consommation des centres de données dans la demande totale d'électricité passera de 4 % en 2023 à 10 % en 2030. Goldman Sachs note également que certaines demandes individuelles d'alimentation pour de grands parcs de centres de données atteignent effectivement des niveaux allant de 300 mégawatts à plusieurs gigawatts.
Mais voici ce qui est intéressant.
NextEra Energy, le plus grand producteur d'énergies renouvelables en Amérique du Nord, a vu son cours augmenter de 11,62 % au cours des 52 dernières semaines. L'ETF sectoriel XLU, qui suit la performance des services publics américains, a progressé de 14,82 %. Pourtant, l'indice S&P 500 a grimpé de 19,89 % sur la même période.
Si l'industrie de l'IA était réellement confrontée à une grave pénurie d'électricité, les entreprises énergétiques et le secteur des services publics devraient bénéficier d'un rendement boursier supérieur à celui du marché, et non être distancés.
Nadella a révélé un élément clé : « L'approbation d'accès au réseau électrique prend cinq ans », et « la construction des lignes de transmission prend entre 10 et 17 ans ».
En comparaison, le cycle d'achat des GPU se compte en trimestres, la construction d'un centre de données dure généralement 1 à 2 ans, et la demande en IA évolue par vagues trimestrielles.
Cette différence d'échelle temporelle crée un décalage fondamental, qui constitue précisément le cœur du problème de pénurie d'électricité évoqué par Nadella.
En outre, Nadella fait face à un autre problème immédiat. En 2020, Microsoft s'est engagé à « atteindre une émission nette de carbone négative, un apport net en eau positif et une gestion des déchets à zéro » tout en protégeant les écosystèmes.
Or, dans les faits, près de 60 % de l'électricité utilisée par les centres de données de Microsoft provient encore de combustibles fossiles, notamment le gaz naturel. Les émissions annuelles de dioxyde de carbone correspondantes équivalent à celles de quelque 54 000 foyers américains moyens.
Par ailleurs, le rapport de l’AIE sur les énergies renouvelables, publié en octobre 2025, indique que la croissance mondiale de la capacité de production d’électricité pourrait dépasser la nouvelle demande, y compris celle générée par l’intelligence artificielle.
Le rapport prévoit qu'entre 2025 et 2030, la capacité installée d'énergies renouvelables dans le monde augmentera de 4 600 gigawatts, un volume équivalent à la somme des capacités actuelles de la Chine, de l'Union européenne et du Japon. Cette augmentation représenterait le double de celle observée durant les cinq années précédentes.
Il convient ici de souligner particulièrement l'énergie nucléaire. Elle constitue la seule option capable de fournir une électricité stable, abondante et à faible teneur en carbone. Le problème des centrales nucléaires traditionnelles réside dans leur long délai de construction, leur coût élevé et leurs risques élevés. Mais les petits réacteurs modulaires (SMR) changent la donne. Ces SMR peuvent être fabriqués en série sous forme de modules standardisés dans des usines, puis transportés par chemin de fer ou par route pour être assemblés sur site, selon un principe similaire à celui des briques Lego.
La puissance unitaire d’un SMR varie entre 50 et 300 mégawatts, bien inférieure aux 1 000 à 1 600 mégawatts des centrales traditionnelles, mais c’est justement là son avantage. Une taille plus petite signifie des délais de construction plus courts, un investissement initial moindre et un choix d’implantation plus flexible. Grâce à une production en série en usine et un assemblage sur site, les SMR permettent de réduire considérablement coûts et risques.
Les SMR sont actuellement la méthode de production d'électricité la plus tendance. Google a signé un accord avec Kairos Power pour acheter 500 mégawatts d'électricité provenant de SMR, marquant la première fois qu'une entreprise technologique investit directement dans cette technologie. Microsoft, quant à lui, a recruté en janvier 2024 l'ancien directeur stratégique et projets nucléaires d'Ultra Safe Nuclear Corporation (USNC) comme directeur de la technologie nucléaire, dans le but de développer des SMR et des micro-réacteurs modulaires (MMR) encore plus petits.
En d'autres termes, ce qui manque à Microsoft, ce n'est pas l'électricité, c'est le temps.
03
Par rapport à la question énergétique, réduire la consommation propre de l'IA constitue également une voie essentielle.
Altman estime que le coût par unité d'intelligence diminue de 40 fois par an, ce qui implique que nous aurons probablement besoin de bien moins d'infrastructures dans quelques années. Et si les percées se poursuivent, une intelligence artificielle générale au niveau individuel pourrait fonctionner sur un simple ordinateur portable, réduisant encore davantage la demande en électricité.

Altman a écrit un article illustrant ce phénomène à partir de ses propres produits. Il y explique qu’entre le modèle GPT-4 début 2023 et le modèle GPT-4o milieu 2024, le coût par token a baissé d’environ 150 fois en seulement un an. À puissance de calcul constante, la consommation électrique nécessaire pour une même tâche diminue donc au fil du développement de l’IA.
Il ajoute que de telles réductions de coût ne peuvent pas s’expliquer uniquement par une baisse linéaire du coût matériel, mais résultent nécessairement d’une combinaison d’optimisations algorithmiques, d’améliorations architecturales des modèles et de gains d’efficacité des moteurs d’inférence.
Le rapport 2025 sur l’intelligence artificielle de l’université Stanford (HAI) confirme cette tendance : en 18 mois, le coût d’appel d’un modèle IA atteignant le niveau de GPT-3.5 (précision MMLU de 64,8 %) est passé de 20 dollars par million de tokens en novembre 2022 à 0,07 dollar par million de tokens en octobre 2024, soit une chute de 280 fois.
Côté matériel, les GPU intègrent désormais deux nouvelles unités d’efficacité énergétique : TOPS/W (trillions d’opérations par seconde par watt) et FLOPS par watt. Ces indicateurs permettent de mieux visualiser les progrès en matière d’efficacité.
Par exemple, la cinquième génération de puce d’entraînement IA d’Athena, Meta X1, atteint une efficacité énergétique de 32 TOPS/W en précision réduite, soit une amélioration de 200 % par rapport à la génération précédente, avec une consommation à vide abaissée de 87 %. Même dans des cas de faible précision comme FP8, le H100 de NVIDIA n’atteint qu’une efficacité de 5,7 TFLOPS/W.
Toutefois, pour certaines tâches d’entraînement exigeant une haute précision, le H100 reste indispensable, ce qui explique pourquoi Meta achète massivement des dizaines de milliers de GPU NVIDIA.
Des données de recherche d’Epoch AI montrent que l’efficacité énergétique du matériel d’apprentissage automatique progresse de 40 % par an, doublant tous les deux ans. Les nouvelles générations de puces IA connaissent des gains significatifs en efficacité.
Le GPU H200 de NVIDIA offre un gain d’efficacité de 1,4 fois par rapport au H100 précédent. Il semble donc qu’il reste encore une large marge de progression.
À un niveau macroscopique, l’efficacité énergétique du centre de données lui-même reste le chiffre le plus important. On utilise généralement le PUE (efficacité d’utilisation de l’énergie) pour mesurer la consommation énergétique d’un centre de données.
La valeur idéale du PUE est 1,0, ce qui signifie que toute l’électricité est utilisée pour le calcul, sans gaspillage pour le refroidissement ou d’autres systèmes auxiliaires. Il y a dix ans, le PUE moyen des centres de données était de 2,5 ; aujourd’hui, il est de 1,5, et celui des nouveaux centres de données de Google est descendu à 1,1. Cela signifie que la même tâche de calcul consomme désormais la moitié de l’électricité d’autrefois. Les technologies de refroidissement liquide, le refroidissement gratuit et les systèmes de gestion énergétique pilotés par l’IA continuent de faire baisser ce chiffre.
Mais quelle que soit l’issue, le secteur de l’énergie aura été profondément transformé par l’IA. Même si la demande future en IA venait à diminuer, la prospérité du secteur énergétique continuera de stimuler d’autres industries.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News












