
Googleは発電のため空へ飛びましたが、AIは本当に電力不足なのでしょうか?
TechFlow厳選深潮セレクト

Googleは発電のため空へ飛びましたが、AIは本当に電力不足なのでしょうか?
AIが欠けているのは電力ではなく、時間だ。
著者:直面AI
AIの究極はエネルギーだと言われており、マイクロソフトCEOのナデラ氏も最近のインタビューで間接的にこの見解を裏付けた。「電力不足のため、マイクロソフトの多くのGPUが倉庫で稼働していない」と彼は語った。
グーグルが最近、TPUを宇宙に打ち上げ太陽光で発電するという奇策を講じたことは、まるでナデラ氏の発言に対する「反響」のようだ。
だが奇妙なことに、ナデラ氏の発言は一見エネルギー業界にとって好材料であるにもかかわらず、中国A株市場でもナスダックでも、エネルギー部門の株価はその発言によって上昇していない。11月初めから原稿執筆時点まで、中国A株市場のエネルギー板塊の上昇率は0%であり、ナスダックで最大手のエネルギー企業の上昇率はわずか0.77%である。
一方ではシリコンバレーの大手企業が電力不足を訴え、「宇宙へ行く」といった解決策さえ模索しているが、他方ではこれほど明確なシグナルがあるにもかかわらず、市場は無関心を貫き、反応を示さない。
こうなると、一つの疑問が生じる:AI産業は本当に電力不足なのだろうか?
OpenAI CEOのサム・アルトマン氏の見解は、「はい、そしていいえ」だ。
「はい」というのは、現在確かに電力不足の現象があるからであり、「いいえ」というのは、問題の本質は実はAIの過剰にあるためである。彼は正確な年数は分からないが、多くても6年以内にはAIが人々の需要を超え、結果としてAIの電力需要も低下すると考えている。
つまり、短期的にはAI産業が電力不足に陥っているが、長期的にはAIのエネルギー消費が減少することで、電力不足の問題は解決されるということだ。
01
グーグルは2025年11月初め、「プロジェクト・サンキャッチャー(Project Suncatcher)」と呼ばれる計画を発表した。この計画ではTPUチップを宇宙に送り、太陽光で発電を行う。

太陽が1秒間に放射するエネルギーは約3.86×10²⁶ワットであり、これは現在の人間社会の全世界総発電量の100兆倍以上である。明け暮れの太陽同期軌道に配置された衛星のソーラーパネルはほぼ連続して光を受けることができ、1年間に受け取るエネルギーは地球上の中緯度地域に設置された同面積のソーラーパネルの8倍となる。
「プロジェクト・サンキャッチャー」は衛星企業Planet Labsと協力し、地上650kmの低地球軌道に81機の衛星から構成されるAI計算クラスタを展開する。設計によれば、これらの衛星は直径1kmの空域内で協調動作し、互いの距離を100〜200メートルに保つ。この計画は2027年初頭に最初の2機の試験衛星を打ち上げ、実現可能性を検証する予定だ。
グーグルは1年間でGeminiモデルの単一クエリあたりのエネルギー消費を33倍削減したと述べているが、明らかにグーグルは依然として電力を必要としている。
宇宙で太陽光発電を行うことは新しい概念ではないが、長年にわたり大きな課題に直面していた。それはいかにして効率的かつ安全に生成された電力を地上に送信するかという点だ。マイクロ波ビームを使うにせよレーザービームを使うにせよ、送電中のエネルギー損失や地上環境への潜在的影響により、大規模な実施が困難だった。
「プロジェクト・サンキャッチャー」の発想はこのプロセスを回避するものだ。データ自体を地上に戻すのではなく、宇宙で得られた電力を直接計算に使い、計算結果だけを地上に送り返す。
地上のTPUスーパーコンピュータクラスタはカスタム化された低遅延光学チップ相互接続技術を使用しており、各チップのスループットは毎秒数百ギガビット(Gbps)に達する。
一方、商用衛星間の光通信リンクのデータ速度は通常1〜100Gbpsの範囲にとどまり、AI計算クラスタ内部の大規模なデータ交換ニーズを満たすには遠く及ばない。グーグルの解決策は密集型波長多重(DWDM)技術を採用し、理論上各衛星間リンクの帯域幅を毎秒約10テラビット(Tbps)まで高めることだ。
グーグルは「プロジェクト・サンキャッチャー」に関する多くの課題と解決法について説明してきた。たとえばクラスタ編隊の制御方法や放射線耐性などである。
しかしグーグルは放熱方法については説明していない。
これは非常に厄介な物理的問題であり、真空中では空気対流が存在しないため、熱は放射によってしか放出できない。グーグルはある論文で、先進的な熱界面材料と熱伝導機構を用い、信頼性確保のため可能であればパッシブ式のものを使用して、チップの熱を専用ヒートシンク表面に効率的に伝導し放射すべきだと述べた。ただし、この部分の技術的詳細については論文内にほとんど記載されていない。
実際、データセンターを宇宙に送るというアイデアはグーグルだけではない。グーグルが計画を発表する数日前、スタートアップ企業StarcloudはNVIDIA H100チップを搭載した衛星を打ち上げ、5ギガワットの出力を持つ宇宙ベースのデータセンター建設を宣言した。イーロン・マスク氏もSpaceXが「宇宙データセンターを作る」と述べている。
2025年5月、中国の之江実験室と国星宇航が共同で開発した「三体計算星座」の最初の12基の計算衛星が成功裏に打ち上げられ、ネットワーク化された。
従ってAIを宇宙に送るという話は一見斬新に聞こえるが、目的は皆同じであり、電力を使いたければそこに行けばよい。地上の電力では足りないのだ。
02
AIが電力に飢える状況を招いている主因はNVIDIAにある。同社のGPU製品はAmpereアーキテクチャからBlackwellアーキテクチャへとわずか4年で、消費電力が数倍に増加した。
HopperアーキテクチャのGPUを搭載するサーバーラックの定格電力は約10キロワットであるが、BlackwellアーキテクチャではGPUの台数増加により、ラック電力は120キロワット近くに達する。
さらに、現在のGPUの単位は「万」である。数万枚のGPUが互いに通信する際には、NVIDIAの高速相互接続技術NvLinkを用いて通信効率を高める必要がある。1本のNvLinkリンクの消費電力は4〜6ワットあり、2枚のGPU間には18本のリンクがあり、これらは非ブロッキング接続を実現するためにNvSwitchに集約される。1つのNvSwitchの消費電力は50〜70ワットである。
もしGPUクラスタが1万枚のH100を有する場合、157個のNvSwitchと9万本のNvLinkリンクが必要になる。それらの消費電力はおよそ730〜1100キロワットの範囲となる。

まだ終わらない。GPUの冷却もまた大きな電力消費源である。一般的な8カードH100サーバーの場合、空冷システムを採用すれば消費電力は150ワットに達するため、1万カードクラスタでは冷却だけで187キロワットが必要となる。
現在、大手テック企業間の競争の指標は、従来の計算能力単位から、エネルギー消費単位「ギガワット(GW)」へと移行している。OpenAIやMetaといった企業は、今後数年間で10ギガワット以上の計算能力を追加する計画を持っている。
参考までに、AI業界が1ギガワットの電力を消費することは、およそ100万の米国家庭の日常的な電力需要をまかなえる量に相当する。国際エネルギー機関(IEA)が2025年に発表した報告書では、2030年までに人工知能分野のエネルギー消費は倍増し、その成長速度は電網自体の伸びの約4倍になると推定している。
ゴールドマン・サックスの予測によれば、2027年までに世界のデータセンターの電力需要は50%増加し、92ギガワットに達するとされている。また、米国のデータセンターの電力需要が全電力需要に占める割合は、2023年の4%から2030年には10%に増加すると予想される。さらに、いくつかの大規模データセンターキャンパスでは、単一プロジェクトの電力接続申請が300メガワットから数ギガワット規模に達しているとも指摘している。
しかし、ここからが興味深い。
NextEra Energyは北米最大の再生可能エネルギー企業であり、米国公益事業部門の動向を追跡する代表的な業界ETFはXLUである。過去52週間、NextEraの上昇率は11.62%、ETF XLUは14.82%であったが、同期間のS&P500指数の上昇率は19.89%に達した。
もし本当にAI業界が深刻な電力不足に直面しているのであれば、電力供給側であるエネルギー企業や公益事業部門は、市場平均を上回るリターンを得るべきであり、逆にそれ以下になるべきではない。
この点について、ナデラ氏は重要な手がかりを示している。彼は「電網接続の承認に5年かかり、送電線の建設には10〜17年かかる」と述べた。
一方、GPUの調達サイクルは四半期単位であり、データセンターの建設期間は通常1〜2年、AI需要の爆発的増加のスピードは四半期単位で変化している。
これらの時間スケールには桁違いの差があり、その時間的ミスマッチこそが、ナデラ氏が「AIが電力不足である」と述べる本質なのである。
さらにナデラ氏には、当面解決できない悩みもある。2020年、マイクロソフトは「エコシステムを保護しながらカーボンネガティブを達成し、水資源を純増させ、廃棄物ゼロを実現する」と発表した。
しかし現実には、現在マイクロソフトのデータセンターが使用する電力の約60%は天然ガスなどの化石燃料由来である。これにより生じる年間二酸化炭素排出量は、およそ5万4000戸の一般米国家庭の排出量の合計に相当する。
一方、国際エネルギー機関(IEA)が2025年10月に発表した『再生可能エネルギー報告書』では、世界の発電能力の成長速度が、AIなどを含む新たな電力需要の増加を上回る可能性があると指摘している。
報告書によれば、2025年から2030年までの5年間で、世界の再生可能エネルギーの設備容量は4600ギガワット増加する見通しだ。この増加分は、中国、EU、日本という3つの経済圏の現在の設備容量の合計にほぼ相当する。さらに、この5年間の増加分は、前の5年間の増加分の2倍になると予想されている。
ここで特に注目すべきは原子力である。原子力は安定的で大規模かつ低炭素の電力を供給できる唯一の選択肢である。伝統的な大型原子力発電所の問題は建設期間が長く、コストが高く、リスクが大きいことである。しかし小型モジュール炉(SMR)がこの状況を変えつつある。 SMRは飛行機や自動車のように工場で標準化されたモジュールを大量生産し、鉄道や道路で現場に輸送して組み立てることが可能で、「レゴブロック」のような建設方式が実現する。
SMRの単機出力は50〜300メガワットで、従来の原子力発電所の1000〜1600メガワットよりはるかに小さいが、これがむしろ利点となる。規模が小さいことで建設期間が短くなり、初期投資が抑えられ、立地も柔軟になる。SMRは工場で量産され現場で組み立てられるため、コストとリスクが大幅に削減される。
SMRは現在最もホットでトレンドの発電方式である。グーグルはKairos Powerと契約を結び、500メガワットのSMR原子力発電を購入した。これはテック企業がSMR技術に直接投資した初の事例である。マイクロソフトは2024年1月、Ultra Safe Nuclear Corporation(USNC)で核戦略・プロジェクトディレクターを務めていた人物を、マイクロソフトの核技術ディレクターとして採用した。その目的はSMRおよびさらに小さなマイクロモジュール炉(MMR)の開発にある。
言い換えれば、マイクロソフトが欠いているのは電力ではなく、時間である。
03
エネルギー面と比べて、AI自体の消費電力を削減することも重要な発展方向の一つである。
アルトマン氏の見解では、単位知能あたりのコストは毎年40倍ずつ低下しており、数年後にはこれほど多くのインフラが必要なくなる可能性が高い。さらに進展があれば、個人用汎用人工知能がノートパソコン上で動作するようになり、発電需要のさらなる削減につながる。

アルトマン氏はある記事で自社製品を例に挙げ、この問題を説明した。記事によれば、2023年初頭のGPT-4モデルから2024年中盤のGPT-4oモデルまで、わずか1年でトークンあたりのコストが約150倍低下した。計算能力が変わらない前提で、AIの異なる発展段階において同じ業務を遂行するのに必要な電力消費は減少する。
彼は、このようなコスト低下はハードウェアコストの線形的低下だけでは達成できず、背後にはアルゴリズムの最適化、モデルアーキテクチャの改善、推論エンジンの効率向上など、複数の要因が総合的に作用していると述べている。
スタンフォード大学が2025年に発表した人工知能指数報告書(HAI)はこの主張を裏付けている。報告書によれば、18ヶ月間でGPT-3.5レベル(MMLU正答率64.8%)のAIモデルの呼び出しコストは、2022年11月の20ドル/百万トークンから2024年10月の0.07ドル/百万トークンに急落し、コストは280倍低下した。
ハードウェア面では、GPUには新たに2つのエネルギー効率指標が加わった:TOPS/W(ワットあたりの兆回演算)とFLOPS per Watt(ワットあたりの浮動小数点演算回数)。これらの単位はエネルギー効率の進歩をより直感的に把握できるようにするためのものである。
たとえばMetaが発表した第5世代AIトレーニングチップAthena X1は、低精度条件下でエネルギー効率が32TOPS/Wに達し、前世代比で200%向上し、アイドル時の消費電力は87%低下した。NVIDIAのH100であってもFP8のような低精度範囲では、エネルギー効率は5.7TFLOPS/Wにとどまる。
ただし、一部の高精度トレーニングタスクには依然としてH100が必要であり、そのためMetaは数十万枚のNVIDIA GPUを大規模に調達している。
Epoch AIの研究データによると、機械学習ハードウェアのエネルギー効率は年率40%のペースで向上しており、2年ごとに2倍になっている。次世代AIチップのエネルギー効率の向上は顕著である。
NVIDIAのH200 GPUは前世代のH100と比べ、エネルギー効率が1.4倍向上した。まだまだ向上余地があるように見える。
マクロの視点から見ると、データセンター自体のエネルギー効率こそが最も注目すべき数字である。通常、PUE(Power Usage Effectiveness:エネルギー使用効率)でデータセンターのエネルギー消費を評価する。
PUEの理想値は1.0であり、すべての電力が計算に使われ、冷却やその他の補助システムに無駄がないことを意味する。10年前、データセンターの平均PUEは2.5だったが、現在は1.5に下がっており、グーグルの最新データセンターではすでに1.1まで低下している。つまり同じ計算タスクに対して、現在では当時の半分の電力しか必要としない。液冷技術、フリーコoling、AI駆動型エネルギーマネジメントシステムなどが、この数値をさらに押し下げ続けている。
いずれにせよ、どんな結末を迎えても、エネルギー業界はAIによって再編成された。将来AIの需要が減少しても、エネルギー業界の繁栄は他の産業の発展を後押しすることになるだろう。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News












