
元グーグルCEOシュミット氏:AIは電気や火のようなもので、この10年が未来100年を決める
TechFlow厳選深潮セレクト

元グーグルCEOシュミット氏:AIは電気や火のようなもので、この10年が未来100年を決める
どちらが先に閉ループを形成するかで、未来の勝者が決まる。
出典:AI深度研究院
2025年、AIの世界は見えない緊張によって引き裂かれつつある。
一方ではモデルパラメータが急増し、他方ではシステムリソースが限界に達している。
誰もが「GPT-5、Claude 4、Gemini 2.5、どれが最強か?」と問うている。しかし、元グーグルCEOのエリック・シュミット氏は、2025年9月20日の公開スピーチでより深い洞察を示した。
「AIの出現は、人類史において火や電気の発明と同等である。そして今後10年間で、未来100年の構図が決まるだろう」
彼が語っていたのはモデルの性能でも、AGIの近さ遠さでもなく、こうした事実だった。
AIはもはやツールの効率向上ではなく、ビジネス運営方式そのものを再定義するものだ。
一方、シリコンバレーの著名な投資機関a16zでの対談の中で、チップアナリストのDylan Patel氏は次のように指摘した。
「大げさに言えば、今のGPU争奪戦は麻薬の取引と同じ。コネクションを使い、ルートを探し、割り当てを奪い合う。だが本質的な競争は、誰がAIを支える完結したシステムを構築できるかにある」
二人の見解は、同じトレンドを示している。
-
パラメータが境界ではない、電力が境界だ;
-
モデルが城壁ではない、プラットフォームが城壁だ;
-
AGIが目的ではない、実装こそが鍵だ
過去3年間のAIの主軸が能力爆発であったなら、
今後10年間の主軸はインフラ整備となる。
第1節|AIはツールの進化ではなく、システムの再構築である
この対談で、エリック・シュミット氏は冒頭からこう切り出した。
「AIの出現は、人類史上、電気や火の発明と同列に位置づけられる」
彼が強調していたのはAIの賢さではなく、「我々が慣れ親しんできた働き方、マネジメント方式、収益モデルが根本から変わる可能性がある」という警告だった。
AIに「もっと速く書かせる」のではなく、「どう書くかをAIに決めさせる」時代になる。
シュミット氏によれば、現在最も優れたAIツールはもはやアシスタントではなく、次のような存在へと変化しつつあるという。
電力網のように、あらゆる組織の標準インフラとして機能する、まったく新しい基盤。
この一言が、ここ数年間のAIに対する常識を根底から覆した。
つまりこれは個人スキルの向上やチーム効率の改善ではなく、組織全体の運営方式の根本的変革である。
-
意思決定方法が変わり、AIが思考に参加する;
-
執筆、プログラミング、カスタマーサポート、会計などすべてにAIパートナーが登場;
-
データ入力、結果評価、フィードバック機構まですべてがAIにより再設計される。
このような全面的な組織変革により、シュミット氏は「詳細なプロセスを事前に設計する」のではなく、「実際の運用を通じてAIが徐々に適応・最適化していく」必要があると認識している。
彼自身が関わる複数のスタートアップ企業では、完全な計画を立てず、AIを直接業務に参加させ、現場での試行錯誤を通じて継続的に調整・改善しているという。
つまり彼が語っているのは「モデルが強くなった」ことではなく、「組織がAIネイティブな形態に移行すべきかどうか」である。
AIはツールから、企業運営のインフラへと変貌しつつある。
第2節|AI発展を制限するのは、電力である
従来、AIの発展は技術的制約によって阻まれると考えられてきた。
-
チップ性能が不足し、モデルが計算できない;
-
アルゴリズムが複雑すぎて推論速度が遅い。
しかしエリック・シュミット氏は、AI発展を真に制限しているのは技術パラメータではなく、電力供給だと断言する。
彼が提示した具体的な数字とは:
「2030年までに、米国はデータセンターの需要を満たすために新たに92GWの電力を追加する必要がある」
これは一体どのくらいの規模か?
大型原子力発電所1基の出力は、わずか1〜1.5GW程度。
92GWとは数十基の原発に相当する発電量である。現実には、米国で建設中の原発はほぼゼロである。
つまり将来的な問題は「モデル技術が不十分」ではなく、「電力供給が訓練需要に追いつけないこと」だ。
シュミット氏は議会に対しても驚きの例を挙げた。「自国のモデルを海外で訓練せざるを得ないかもしれない。例えば中東諸国の発電施設を利用するなど」

(サム・アルトマンがブログを発表:『知能時代の無限の可能性』)
この電力への渇望は決して誇張ではない。9月23日、OpenAI CEOのサム・アルトマン氏は新たなブログを発表し、さらに大胆な方向性を示した。「毎週1GWのAI計算施設を新設する工場を建設したい。消費電力は都市規模に匹敵する」
彼は明確に述べた。「これはチップ、電力、ロボット、建築など、複数システムの連携突破が必要になる」
彼の言葉を借りれば、「すべては計算から始まる」のだ。
アルトマン氏のこの目標は将来像の提示ではなく、すでに着手されているインフラ整備であり、シュミット氏が言う「AIが新たな電力網となる」ことを具体化する道筋なのである。
実際:
モデルの訓練自体はそれほど高コストではない。真のコストは電力消費、稼働時間、設備メンテナンスである。
推論タスクが増え、生成コンテンツが画像・動画・長文と複雑化するにつれ、AI工場の電力需要が新たな計算能力のボトルネックとなりつつある。
Dylan Patel氏も別の対談で、AIシステム構築時には単にチップの速度だけでなく、冷却、電気料金、安定性も考慮しなければならないと述べた。彼の表現はさらに鮮明だった。
「AI工場とはGPUを大量に購入すればよいわけではない。電力の配分と持続稼働能力を考えなければならない」
つまりこれはチップの問題ではなく、電力が追いつくかどうかの問題なのだ。
そして電力が不足すると、連鎖反応が起こる。
-
モデルが訓練できなくなる;
-
推論コストが上昇する;
-
AIツールの大規模展開が不可能になる;
-
最終的に実用化の可能性を失う。
シュミット氏は、インフラ整備の遅れが現在AI実装における最大の現実的課題だと考える。十分なエネルギーがなければ、いかに先進的なモデル能力があっても活用できない。
したがって、AIの次の戦場は研究室ではなく、発電所にある。
第3節|誰がチップを持っているかではなく、誰がそれを活用できるか
仮に電力問題が解決されたとしても、まだ問題は終わらない。本当にこれらのチップ、モデル、タスクをすべて正常に稼働させることができるのか?
多くの人は、H100、B200といった最先端チップさえ手に入れれば、AI工場は完成すると考えている。
しかしDylan Patel氏は即座に水を差す。
「現在GPUは極めて希少で、メッセージを送って『在庫は?価格は?』と聞き回らなければならない」
続けて彼はこう述べる。
「しかしチップだけあっても意味がない。肝心なのはそれらを効果的に協働させることだ」
つまりチップ自体は単なる部品にすぎず、AI工場が持続稼働できるかどうかを決めるのは、それらを統合して稼働させる能力があるかどうかである。
彼はこの統合能力を以下の4つの層に分ける。
-
計算基盤:GPU、TPUなどのハードウェア基盤;
-
ソフトウェアスタック:学習フレームワーク、スケジューリングシステム、タスクアロケーター;
-
冷却と電力管理:電力があるだけでなく、温度、負荷、電気料金をしっかり制御すること;
-
エンジニアリング能力:誰がモデルを最適化し、計算資源をチューニングし、コストを管理するか。
これがDylan氏が言う「AI工場」の核心だ。AI工場とはモデルでもカードでもなく、一連の継続的なエンジニアリングスケジューリング能力である。
気づくだろうが、AI工場は大量の計算能力だけでなく、複雑な工学的連携も必要とする。
-
大量のGPUは「原材料」;
-
ソフトウェアスケジューリングは「制御室」;
-
冷却と電力は「設備担当者」;
-
エンジニアリングチームは「保守担当者」である。
簡単に言えば、重心は「モデル作成」から「インフラ構築」へと移ったのである。
Dylan氏が注目する興味深い現象がある。現在のチップメーカーはもはやカード販売だけでなく、「施工請負」を始めている。NVIDIAは顧客向けにサーバー統合、冷却設定、プラットフォーム構築を支援しており、自らがプラットフォーム化している。

(出典:ロイター報道)
このインタビューが公開された当日、NVIDIAとOpenAIは将来の協業意向を発表。NVIDIAはOpenAIに最大10GW級のデータセンター資源を提供する予定で、投資規模は数千億ドルに及ぶ可能性がある。
サム・アルトマン氏は声明でこう語った。これはまさに上記の論理を裏付ける。
「計算インフラは将来経済の基盤となる。NVIDIAは単にカードやチップを売るだけでなく、共同でAI工場の展開・建設・運営を行う」
これは一つの傾向を示している。真正に閉じたサイクルを形成できるのは、最も頭のいい人ではなく、最も実装に精通した人である。
つまり:
-
モデルを作れるのは一つの能力;
-
モデルを毎日安定稼働させるのは、全く別の能力。
AIはもはや買ってすぐに使える製品ではなく、継続的な運用を要する複雑な工学システムである。肝心なのは、長期的にこのシステムを運用できる能力があるかどうかだ。
第4節|AI能力の拡散がトレンドに、競争の焦点はどこに?
人々がまだ運用能力を争っている間に、新たな変化が起きている。
AIモデルはますます高性能で賢くなっていくが、エリック・シュミット氏は警告を発する。
「モデルの蒸留を阻止することはできない。APIにアクセスできる人であれば、誰でもその能力をコピーできる」
蒸留とは何か? 簡単に言えば:
-
大規模モデルは能力が高いが、導入コストが高すぎる;
-
研究者はそれを用いて小型モデルを訓練し、小モデルに大モデルの思考パターンを模倣させる;
-
低コスト、高速、高精度、追跡困難。
一流シェフをそのままコピーできないが、彼の料理を食べて、別の人に8割似た味を再現させることは可能である。
問題はここにある。能力が容易に移転できるほど、モデル自体を制限することが難しくなる。

(Dylan Patel、著名な半導体業界アナリスト、AIインフラ研究専門)
Dylan Patel氏も業界のトレンドについて触れた。
現在、蒸留のコストは元の訓練コストの約1%程度だが、元モデルの80〜90%の能力を再現できる。
OpenAI、Google、Anthropicがモデルをどれほど厳重に保護しても、蒸留によって類似能力を獲得する人を止められない。
かつては「誰が強いか」を競っていたが、今は「誰がコントロールできるか」が懸念されるようになっている。
シュミット氏は対談でこう語った。「最大のモデルは永久に公開されないだろう。一方で、小規模モデルの拡散は避けられない」
彼は閉鎖を煽っているわけではなく、現実を警告している。技術の拡散スピードは、ガバナンスの整備スピードをはるかに超える可能性がある。
例えば、現在すでに多くのチームがGPT-4のAPIを使って、GPT-4-liteを蒸留している。
-
低コストで、容易に導入可能;
-
外部からは明確な識別が難しい;
-
ユーザーにとってはほぼ同じように感じられる。
これにより新たな難題が生じる。モデルの能力は「空気」のように拡散するが、その出所、責任帰属、使用範囲は明確に定義しにくい。
シュミット氏が真に恐れているのは「モデルが強すぎる」ことではなく、
「ますます多くのモデルが高度な能力を持ちながら、監視下になく、追跡不能で、責任が不明確な状態で、どうやってAIの信頼性を確保するか」である。
この現象はもはや仮定ではなく、既存の現実である。
AI能力の拡散は不可逆のトレンドとなった。単に先進的なモデルを持つことが護城河ではなくなる。競争の焦点は、これらの能力をいかに巧みに活用・サービス化できるかに移っている。
第5節|プラットフォームの鍵は、使うほどに正確になること
結局のところ、「作れるかどうか」よりも重要なのは、「使うほどに良くなるプラットフォームを構築できるか」である。
エリック・シュミット氏はこう答えた。
「将来成功するAI企業は、モデル性能だけでなく、持続的な学習能力を競うことになる」
平たく言えば、一度製品を作って終わりではなく、プラットフォームを構築し、使うほどに賢くなり、使いやすく、安定性が高くなる仕組みを作ることだ。
彼はさらに説明する。
プラットフォームの核心は機能ではなく、「他人が離れられなくなること」である。
例えば:
-
電力網が重要なのではなく、すべての照明を点灯できること;
-
OSが機能豊富なことではなく、多数のアプリが安定稼働できること;
-
AIプラットフォームも同様に、特定のスマートアシスタントを作るのではなく、他のチーム、ユーザー、モデルが接続・呼び出し・強化できるようにすること。
AIプラットフォームとは特定機能ではなく、継続的に稼働するサービスネットワークである。
彼は若い創業者に助言する。「この製品が完璧かどうか」ではなく、「使われる→学ぶ→最適化→また使われる」というループが形成されているかを見極めよ。
なぜなら、持続的に学習できるプラットフォームのみが、長期的に生き残れる可能性があるからだ。
Dylan Patel氏は補足する。これは実はNVIDIAの成功の道でもある。ジェンセン・フアン氏が30年間CEOを務めたのは運ではなく、チップとソフトウェアを閉じたループに不断に結合させた結果だ。顧客が使えば使うほどニーズがわかり、ニーズがわかれば製品が使いやすくなり、製品が使いやすくなれば顧客は離れにくくなる。
こうして好循環が生まれ、「使うほどに価値が上がる」状態になる。
「発表即ピーク」ではなく、継続的に成長できるプラットフォームである。
シュミット氏は明確に総括した。「あなたはこのような成長メカニズムを構築できるか? 最初は小さくても、常に適応し、拡張し、更新し続けられるか?」
彼が未来のAIプラットフォーム成功者に求めるのは、
「何をコード化したか」ではなく、「プラットフォームを生き延びさせ、なおかつますます強化できるか」である。
結語|早く閉じたループを形成した者が、未来を勝ち取る
エリック・シュミット氏はインタビューでこう語った。
「AIは電気や火のようであり、この10年が未来100年を決める」
AIの能力はすでに整っているが、どこに向かうか、どのように構築するか、どう使うかはまだ明確になっていない。
今の重点は次世代モデルを待つことではなく、既存のAIを実際に使いこなし、うまく活用することだ。GPT-6やDeepSeek R2のリリース時期ばかり気にせず、まずカスタマーサポート、執筆、データ分析などのシーンでツールを確実に稼働させろ。AIを24時間安定稼働させることこそが重要であり、発表会で一瞬輝くだけでは意味がない。
これは賢人の競争ではなく、実行力の戦いである。
誰が最初にAIを研究室から現実に持ち込み、実用化するか。それが未来10年の主導権を握る。
そしてこの「閉じたループの争い」は、すでに始まっている。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News












