
黄仁勲氏最新インタビュー:DeepSeekをファーウェイと密接に結びつけようとしている——米国にとってはあまりにも恐ろしいこと
TechFlow厳選深潮セレクト

黄仁勲氏最新インタビュー:DeepSeekをファーウェイと密接に結びつけようとしている——米国にとってはあまりにも恐ろしいこと
中国向け輸出に関して、彼は極端な輸出規制政策を「非常に幼稚だ」と批判した。
整理:小々、网易智能
NVIDIA CEO 黄仁勲氏は最近、米国を代表するテクノロジーポッドキャストのホストであるデワルケシュ・パテル氏(Dwarkesh Patel)とのインタビューに応じ、自社の「モートール」(競争優位性)、グーグルのTPUとの競合、中国向けチップ輸出など、重要な課題について全面的に回答した。
彼は、NVIDIAのモートールがサプライチェーンの奥深くまで延びており、数千億ドル規模の調達コミットメントを通じて、TSMCおよびメモリサプライヤーと極めて緊密な連携関係を築いていると強調した。
TPUとの競合については、黄氏はAnthropic社の事例はASIC成長における特殊な一例であり、トレンドではないと指摘。NVIDIAのアクセラレーテッド・コンピューティングは、分子動力学、データ処理、流体力学など、AIを遥かに超えた広範な市場をカバーしており、CUDAの高いプログラマビリティにより、毎年10~50倍の性能向上を実現していると説明した。
また、NVIDIAが自ら巨大クラウドプロバイダーにならない理由についても説明した。資金繰りに余裕があるにもかかわらず、NVIDIAは「必ず行うべきことだけを行い、できる限り最小限に抑える」という原則を守っている。そのため、CoreWeave、OpenAI、Anthropicなどのエコシステム企業への投資を選択し、顧客と直接競合することを避けている。同時に、Anthropic社への大規模投資をより早期に行わなかったことは自身の失敗であったと認めている。さらに、AI革命が起こらなかったとしても、物理・化学・データ処理などの分野でアクセラレーテッド・コンピューティングを活用し、依然として非常に大きな企業になるだろうと述べた。
中国向け輸出に関しては、過度な輸出規制政策を「非常に幼稚だ」と批判。黄氏は、AIの演算能力はチップとエネルギーの融合であると指摘し、EUVリソグラフィ装置の制約はあるものの、中国には7nmチップの大規模製造能力が十分にあると述べた。現在の主流の大規模言語モデル(LLM)は、主にHopperアーキテクチャ上で訓練されており、中国は豊富な電力供給とチップクラスター規模の拡大によって、単一チップの性能差を十分に補えると説明した。
さらに、中国の膨大なAI研究チームが、より効率的なコンピューターサイエンスによってモデル性能を向上させていると指摘。DeepSeekを例に挙げ、「これは無視できる進歩ではない」と警告した。こうした優れたオープンソースモデルが、ファーウェイなどの国内ハードウェアに特化して最適化され、その上で最も優れた動作を実現するよう強制された場合、米国の技術スタックのグローバルな優位性は客観的に直接損なわれることになると論じた。彼は、世界第2の市場を意図的に放棄することは、中国に米国とは独立した基盤となるコンピューティングアーキテクチャを構築せざるを得ない状況を招くと強調。こうしたオープンスタンダードに基づく技術が徐々にグローバル・サウスへと拡散していく中で、米国は長期的なAIエコシステム標準競争において、極めて不利な立場に陥る可能性が高いと予測した。
以下は黄仁勲氏のインタビュー全文である:
サプライチェーンの支配こそがNVIDIA最大のモートールなのか?
パテル氏:多くのソフトウェア企業の評価が下落しています。なぜなら、AIがソフトウェアをコモディティ化すると考えられているからです。ある見解では、NVIDIAは設計ファイルをTSMCに送付し、TSMCがロジックチップとスイッチを製造し、SKハイニックス、マイクロン、サムスンのHBMをパッケージングし、台湾のODM企業がラックに組み立てているにすぎないとされています。本質的にNVIDIAはソフトウェアを提供しており、ハードウェアは他社が製造しているのです。もしソフトウェアがコモディティ化すれば、NVIDIAも同様にコモディティ化してしまうのでしょうか?
黄氏:最終的には誰かが電子をトークンに変換しなければなりません。この変換プロセスは、完全にコモディティ化されることが極めて困難です。「あるトークンが他のトークンよりも価値を持つようにする」ことは、「ある分子が他の分子よりも価値を持つようにする」のと同じくらい難しいことであり、大量の技術、工学、科学、発明が必要です。これらの作業は、まだ十分に理解されておらず、また決して終了することはありません。私は、このようなコモディティ化が実際に起こるとは思っていません。
ただし、私たちはこのプロセスをより効率化させています。あなたがこの問いを立てた方法そのものが、私が会社をどう捉えているかを表しています。つまり、入力は電子であり、出力はトークンであり、その間にNVIDIAが存在します。私たちの原則は、「必要なことをするが、できる限り最小限に抑える」ことです。「できる限り最小限に抑える」とは、自分たちでやる必要のないことはパートナーと協力し、それを自分のエコシステムの一部にするということです。
今日のNVIDIAは、おそらく世界最大のパートナーエコシステムを持つ企業です。これには、上流・下流のサプライチェーン、あらゆるコンピュータ企業、アプリケーション開発者、モデルメーカーが含まれます。AIはまるで5層のケーキのようなものであり、私たちはその各層に独自のエコシステムを持っています。私たちは「最小限」を心がけますが、それでも「絶対にやらなければならない部分」は極めて困難であり、私はそれがコモディティ化されることはないと思っています。
また、私はエンタープライズソフトウェア企業がコモディティ化されるとも思っていません。現在のほとんどのソフトウェア企業はツールベンダーであり、Excel、PowerPoint、Cadence、Synopsysなどが該当します。私の見解は多くの人と逆で、AIエージェントの数は指数関数的に増加し、ツールのユーザー数も同様に指数関数的に増加すると考えています。これらのツールのインスタンス数は、爆発的に増える可能性があります。
例えば、Synopsysのデザインコンパイラは、レイアウトや設計ルールチェックを行うために多数のAIエージェントによって利用されます。今日の制約要因はエンジニアの数ですが、明日には各エンジニアの背後に多数のAIエージェントがいるでしょう。私たちは、これまでにない方法で設計空間を探求でき、しかも使用しているのは今日のツールです。ツールの高頻度利用は、ソフトウェア企業の飛躍的な成長を促します。しかし、今のところそれが起きていないのは、AIエージェントがツールを十分に使いこなせていないからです。これらのソフトウェア企業が自らAIエージェントを開発するか、あるいはAIエージェントが十分に洗練されてツールを自在に扱えるようになるか——どちらのシナリオも起こるでしょう。
パテル氏:最新の文書では、ファウンダリー、メモリ、パッケージングに対して約1,000億ドルの調達コミットメントが記載されています。半導体調査機関SemiAnalysisは、この数字が2,500億ドルに達すると推定しています。ある解釈によれば、NVIDIAのモートールは、将来数年にわたって希少な部品を確保することにあります。他の企業がアクセラレータを持っていても、メモリやロジックチップを入手できないというわけです。これが今後数年の主要なモートールなのでしょうか?
黄氏:これは、私たちが可能にして他人が難しいことの一つです。私たちは上流に対して巨額のコミットメントを行っており、その一部は、あなたが指摘したような明示的なものです。また、一部は暗黙的であり、例えば上流企業のCEOたちに「この業界の規模はこれほど大きく、その理由はこうだ」と説明し、私が見ている未来を提示することで、彼らが投資を決めたケースもあります。
なぜ彼らは私ではなく他の企業のために投資しないのでしょうか? それは、私が彼らの供給を買い取り、下流で販売する能力を持っていることを知っているからです。NVIDIAの下流需要と下流サプライチェーンは非常に巨大であり、そのため彼らは上流で投資する意思を示すのです。
GTCカンファレンスを見てください。その規模と人気ぶりに人々は驚きます。それは、AIコミュニティ全体が集まり、互いに交流し、互いに可視化するために集まっているからです。私が彼らを集めるのです。下流が上流を見、上流が下流を見る。そして全員がAIの進展を目撃するのです。さらに、AIネイティブ世代やすべてのスタートアップ企業にも出会えるでしょう。そうすることで、私が話していることを彼らが実際に検証できます。私は多大な時間を費やし、直接的または間接的に、サプライチェーン、パートナー、エコシステムが直面する機会を理解できるようにしています。
「黄氏の基調講演はまるで授業のようで、ちょっと苦痛だ」と言う人もいます。実はそれが狙いなのです。私は、サプライチェーン全体、上流・下流、エコシステム全体に、何が起こり、なぜ起こり、いつ起こり、どれほどの規模で起こるのかを理解させ、かつ私と同じように体系的に考えられるようにしたいのです。
モートールについては、私たちは将来に向けて事前に布石を打っているのです。もし今後数年で本当に1兆ドル規模に成長したとしても、それに見合うサプライチェーンを構築できるのは、今日の事業規模と影響力、そして事業の高速な回転(キャッシュフローのように)があってこそです。事業の回転が遅ければ、誰も空っぽの枠組みのためにサプライチェーンを構築しようとはしません。私たちが今日このような規模を維持できている根本的な理由は、下流の需要が極めて旺盛だからです。彼らが実際に見て、聞いて、そのすべてが現実に起きていると認識したとき、初めて、今日の規模で今やっていることを成し遂げられるのです。
パテル氏:具体的に、上流が追いつけるかどうかを知りたいと思います。NVIDIAはここ数年、収入を毎年倍増させ、世界に提供する演算能力を毎年2倍以上増やしています。
黄氏:この規模で毎年倍増するのは、確かに驚異的です。
パテル氏:しかし、ロジックチップを見てください。NVIDIAはTSMCのN3ノード最大の顧客であり、N2ノード最大の顧客の一つでもあります。SemiAnalysisによれば、今年のAIはN3の生産能力の60%を占め、来年には86%に達するとのこと。すでに大部分を占めているのに、どうやって倍増するのでしょうか? 年々倍増し続けることができるのでしょうか? 我々は、上流の制約によってAI演算能力の伸びが減速せざるを得ない段階に入ったのでしょうか? 解決策は見えていますか? 結局のところ、ウェーハファブの生産能力を年々倍増させるには、どうすればよいのでしょうか?
黄氏:ある時点で、瞬間的な需要が、世界中の上流・下流の総供給を上回ることは十分にあり得ます。実際、配管工の人数が足りず制約を受けたこともありました。
パテル氏:配管工は来年のGTCに招待すべきですね。
黄氏:良いアイデアです。しかし、これはむしろ好ましい現象です。業界の瞬間的な需要が総供給を上回ることが望ましく、逆であればあまり良くありません。ある部品の不足が大きすぎれば、業界全体がその解決に奔走します。もう、CoWoSについて議論する人はほとんどいません。過去2年間、私たちは必死にこの問題を解決し、状況はかなり改善しました。TSMCは、CoWoSの供給がロジックチップやメモリの需要に追いつかなければならないことを理解しています。彼らは、ロジックチップの拡張と同じペースで、CoWoSおよび将来のパッケージング技術を拡張しています。これは非常に良いことで、CoWoSとHBMメモリはかつてはマイナーな技術でしたが、今やメインストリームのコンピューティング技術となっています。
現在、私たちはより広範なサプライチェーンに影響を与えることができます。AI革命の初期段階で私が話していたことは、5年前からずっと言ってきました。それを信じて投資した人がいます。マイクロンのCEOサンジャイ・メヘロトラ(Sanjay Mehrotra)氏とそのチームがそうです。私はあの会議を鮮明に覚えています。私が正確に何が起こり、なぜ起こり、そして今日の状況になるのかを説明したのを、彼らは本当に理解し、投資を倍増させました。私たちはLPDDRおよびHBMメモリで共同開発し、彼らは大規模な投資を行い、大きな成功を収めました。遅れてきた人もいますが、今では皆が参入しています。
すべてのボトルネックは、多大な注目を集めます。私たちは、ボトルネックを数年前から予測し始めています。例えば、過去数年間、Lumentum、Coherent、シリコンフォトニクス・エコシステムへの投資は、サプライチェーンを再構築しました。私たちはTSMCを中心にサプライチェーン全体を構築し、シリコンフォトニクス統合プラットフォーム「COUPE」の共同開発を行いました。多くの技術を発明し、特許をサプライチェーンにライセンス提供することで、オープンな環境を保っています。
私たちは、新しい技術、新しいプロセス、新しいテスト装置(例:両面プロービング)の発明、企業への投資による増産支援などを通じて、サプライチェーンを強化しています。私たちはエコシステムを形成し、この規模を支えるサプライチェーンを育てようとしています。
パテル氏:一部のボトルネックは、他のものより簡単に解決できるようです。例えばCoWoSの増産などです。
黄氏:最も困難なものを克服するのが私たちの役割です。
パテル氏:それは何ですか?
黄氏:配管工と電気技師です。これが、私が「終末論者」を心配する点です。彼らは「仕事が消える」「職がなくなる」と言います。もし人々がソフトウェアエンジニアになるのを止めれば、当然ソフトウェアエンジニアが枯渇します。10年前にも同じ予言がありました。「絶対に放射線科医になってはいけない」という終末論者がいて、今でもネットで見つけられます。その動画では、「放射線科医は最初に消える職業であり、世界はもう放射線科医を必要としない」と断言していました。さて、今、何が不足していますか? 放射線科医です。
パテル氏:一部のものはスケール可能ですが、他のものはそうではありません。あなたは毎年ロジックチップを2倍に製造できるのでしょうか? 最終的には、メモリもロジックもEUVリソグラフィ装置に依存しています。あなたは毎年2倍のEUVリソグラフィ装置を手に入れることができるのでしょうか?
黄氏:これらの生産能力は、短期間で迅速にスケール可能です。2~3年で実現できます。ただ、サプライチェーンに需要信号を送るだけでよいのです。1台作れるなら10台も作れます。10台作れるなら100万台も作れます。これらを複製するのは難しくありません。
パテル氏:あなたはサプライチェーンのどこまで踏み込むつもりですか? ASMLに直接行って、「3年後にはNVIDIAの年間売上が2兆ドルになるため、もっと多くのEUVリソグラフィ装置が必要だ」と言うのでしょうか?
黄氏:一部は直接伝え、一部は間接的に伝えます。TSMCを説得できれば、ASMLも説得できます。キーボトルネックを見つけなければなりません。しかし、TSMCが説得されれば、数年以内に十分なEUVリソグラフィ装置が手に入るでしょう。
私の見解は、どのボトルネックも2~3年を超えて続くことはないということです。一方で、私たちは計算効率を10倍、20倍と引き上げ続けています。HopperからBlackwellへの進化では、30~50倍の向上です。CUDAの柔軟性により、私たちは絶えず新しいアルゴリズムや技術を発明し、容量を増やすと同時に効率も高めています。これらのことについては、まったく心配していません。私が心配しているのは、下流のものです。エネルギー政策がエネルギー拡張を阻止しており、エネルギーがなければ新産業を築けません。エネルギーがなければ新たな製造業も立ち上げられません。
私たちはアメリカの再工業化を進めなければなりません。チップ製造、コンピュータ製造、パッケージングをアメリカに呼び戻さねばなりません。EV、ロボット、AIファクトリーを製造しなければなりません。これらすべてはエネルギーなしには成り立ちませんが、エネルギーの整備には長い時間がかかります。チップ生産能力は2~3年で解決可能な問題です。CoWoSの生産能力も、同様に2~3年で解決可能です。
TPUはNVIDIAのAI演算能力支配を崩すのか?
パテル氏:世界トップ3のモデルのうち、ClaudeとGeminiの2つはグーグルのTPUで訓練されています。これはNVIDIAにとって何を意味するのでしょうか?
黄氏:私たちがやっていることは全く異なります。NVIDIAは単なるテンソル処理ユニット(TPU)ではなく、アクセラレーテッド・コンピューティングを提供しています。アクセラレーテッド・コンピューティングは、分子動力学、量子色力学、データ処理、構造化データ、非構造化データ、流体力学、素粒子物理学など、AI以外にも広範な用途に使われます。もちろんAIも行います。
アクセラレーテッド・コンピューティングは、それよりもはるかに広範です。AIは現在の話題であり、明らかに重要で影響力がありますが、コンピューティングはそれよりもずっと広い概念です。NVIDIAは、汎用コンピューティングからアクセラレーテッド・コンピューティングへと、コンピューティングのあり方を再定義しました。私たちの市場は、どんなTPUやASICよりもはるかに広く、あらゆるアプリケーションをアクセラレートできる唯一の企業です。私たちは巨大なエコシステムを持ち、あらゆるフレームワークやアルゴリズムがNVIDIA上で動作します。
私たちのコンピューターは、他人が操作できるように設計されているため、あらゆる運用者が購入できます。一方、多くの自社構築システムは、柔軟性が低いため、他人が操作できません。誰でも構築・運用できるため、私たちはグーグル、アマゾン、Azure、オラクルといったあらゆるクラウドに存在します。
他人に貸し出すことを目的とするなら、多くの業界からなる膨大な顧客群を確保しておく必要があります。自分自身で使うなら、もちろん私たちは運営を支援できます。xAIでイーロン・マスク氏を支援したようにです。また、あらゆる企業・業界の運用者に対しても、能力を提供できます。例えば、リリー社のために科学研究や創薬発見向けのスーパーコンピューターを構築し、その運営を支援し、創薬発見やバイオサイエンス全般に活用できるようにします。
TPUでは実行できないアプリケーションがたくさんあります。NVIDIAのCUDAは優れたテンソル処理ユニットですが、データ処理のすべてのステップ、計算、AIなども処理できます。私たちの市場機会ははるかに大きく、カバレッジも広いのです。世界中のあらゆるアプリケーションをサポートしているため、どこでもNVIDIAシステムを構築でき、必ず顧客がいることが保証されます。これはまったく異なる状況です。
パテル氏:あなたの収益は驚異的ですが、それは製薬業界や量子計算からではなく、主にAIから得られています。なぜなら、AIという前例のない技術が、前例のないスピードで成長しているからです。そこで問題は、「AIにとって最も有益なものとは何か?」ということです。TPUは本質的に巨大なパルスアレイであり、行列乗算に特に優れています。GPUはより柔軟で、分岐判断が多く、メモリアクセスが不規則なタスクにも適しています。しかし、AIが実際に何をしているのかを考えると、結局のところ、AIとは、非常に予測可能な行列乗算を何度も何度も繰り返すだけです。それならば、なぜチップ上にスレッドブロックスケジューラやスレッドとメモリバンク間の切り替えといった汎用機能のために領域を確保するのでしょうか? その領域はすべて行列乗算に使えるはずです。TPUはまさに、今爆発的に需要が高まっている計算ニーズに特化して設計されています。あなたはどう思いますか?
黄氏:行列乗算はAIの重要な一部ですが、すべてではありません。新しいアテンション機構を考案したり、分解方式を変えたり、混合状態空間モデル(SSM)といったまったく新しいアーキテクチャを発明したりする場合、普遍的にプログラマブルなアーキテクチャが必要です。拡散モデルと自己回帰を融合させたモデルを作成する場合にも、同様に普遍的にプログラマブルなアーキテクチャが必要です。私たちは、あなたが思いつくあらゆるものに対応できます。それが私たちの強みです。プログラマブルであるため、新しいアルゴリズムの発明がはるかに容易になります。
新しいアルゴリズムを発明できる能力こそが、AIがこれほど急速に進歩している理由です。TPUや他のものも、ムーアの法則の影響を受けており、年間約25%の進歩しかありません。年間10倍や100倍の飛躍を実現する唯一の方法は、毎年根本的にアルゴリズムと計算方法を変えることです。
これがNVIDIAの根本的な強みです。BlackwellはHopper比で50倍の省エネ性能を実現しています。私が最初に35倍と発表したとき、誰も信じませんでした。その後、誰かが「実は50倍だ」という記事を書きました。ムーアの法則だけでは到底不可能であり、専門家混合モデル(MoE)といった新しいモデルを並列化・分解・分散化し、計算システム全体に展開することで実現しています。CUDAがなく、新しいカーネルを深く書き込む能力がなければ、これは非常に困難です。
これは、プログラマブルなアーキテクチャとNVIDIAの極めて高度な協調設計能力の結合です。NVLinkやSpectrum-Xといったネットワーク構造自体に一部の計算をオフロードすることもできます。プロセッサ、システム、ネットワーク構造、ライブラリ、アルゴリズムを同時かつ継続的に変更できます。CUDAがなければ、どこから手をつければよいのかさえ分かりません。
パテル氏:これはNVIDIAの顧客に関する興味深い問題を提起します。あなたの収益の60%は、5つの超大規模クラウドプロバイダーから得られています。かつての時代、顧客は実験を行う教授たちで、彼らはCUDAを必要とし、他のアクセラレータでは動作しませんでした。彼らはCUDAでPyTorchを実行し、すべてが最適化されていました。しかし、これらの超大規模クラウドプロバイダーは、自らカーネルを書く能力を持っています。実際、特定のアーキテクチャから最後の5%の性能を絞り出すためには、そうする必要があります。Anthropicやグーグルは、主に自社のアクセラレータ(TPUやTrainium)で実行しています。GPUを使うOpenAIでさえ、Tritonを採用しており、彼らはcuBLASやNCCLを使わず、独自のソフトウェアスタックを使用し、他のアクセラレータにもコンパイルできます。もしあなたの大部分の顧客がCUDAの代替品を既に作り、かつ実際にそれを使用しているなら、CUDAは、最先端のAIがNVIDIA上で動作するうえで、どれほど不可欠なのでしょうか?
黄氏:CUDAは豊かなエコシステムです。あらゆるコンピューター上で開発を行う場合、CUDAを第一選択とすることが非常に賢明です。エコシステムが非常に豊かであり、あらゆるフレームワークをサポートしています。カスタムカーネルを書く場合でも、Tritonに対する貢献は大きく、Tritonのバックエンドには多数のNVIDIA技術が採用されています。
私たちは、あらゆるフレームワークがより良くなることを積極的に支援しています。Triton、vLLM、SGLangなど、多くのフレームワークがあります。また、verlやNeMo RLなど、強化学習向けの新しいフレームワークも登場しています。ポストトレーニングや強化学習分野は、まさに爆発的成長期に入っています。したがって、特定のアーキテクチャ上で開発を行うのであれば、CUDAを選ぶのが最も意味のある選択です。なぜなら、そのエコシステムの充実度を誰もが知っているからです。
また、万が一問題が発生した場合、原因は自分のコードにある可能性が高く、底辺の膨大な基礎システムにある可能性は低いという点も、安心材料です。あなたが扱っているコードの規模がいかに巨大であるかを忘れないでください。システムが動作しない場合、「自分が間違ったのか、それともコンピューターが間違ったのか?」と問いかける必要があります。当然、常に「自分が間違った」と気づきたいものです。そうすれば、コンピューターを常に信頼し続けられます。もちろん、私たち自身にも多くのバグがあります。しかし、肝心なのは、私たちのシステムが何度も検証されており、その上で安全に構築できるという点です。これが、まず第一に言いたかった点、すなわちエコシステムの豊かさ、プログラマビリティ、そして能力です。
第二に、開発者にとって最も重要なのは、インストールベース(既設台数)です。自分のソフトウェアが、多くの他のコンピューターで動作することを望みます。自分自身のためにソフトウェアを書くのではなく、自分のクラスターや他者のクラスターのために書くのです。なぜなら、あなたはフレームワーク開発者だからです。NVIDIAのCUDAエコシステムは、最終的にそれが最大の財産となります。
現在、世界中に数億台のGPUが存在し、あらゆるクラウドに配置されています。A10、A100、H100、H200からLシリーズ、Pシリーズ、さまざまなサイズ・形状のものまで揃っています。ロボット企業であれば、そのCUDAスタックがロボット内部でそのまま動作することを望むでしょう。私たちは、ほぼ至る所に存在しています。このインストールベースがあれば、一度開発したソフトウェアやモデルは、どこでも利用できます。この価値は計り知れません。
最後に、私たちはあらゆるクラウドに存在するという点で、真にユニークです。AI企業や開発者であれば、どのクラウドプロバイダーと提携するか、負荷をどこで実行するかが不透明かもしれません。しかし、心配は無用です。私たちは、あなたの自社データセンターを含め、どこにでも存在します。エコシステムの豊かさ、インストールベースの広さ、存在位置の多様性——これらすべてが、CUDAの価値を無与倫比なものにしています。
パテル氏:納得できます。しかし、ここで私が聞きたいのは、これらの利点が、あなたの最大の顧客にとってどれほど重要なのかということです。多くの人にとってはCUDAが非常に価値あるものかもしれませんが、あなたの収益の大半は、自らソフトウェアスタックを構築できる大口顧客から得られています。特に、将来AIが強化学習による厳密な検証が可能な分野に進出した場合、問題は「誰が大規模クラスター上で最も高速に行列乗算やアテンションカーネルを実行できるか?」に変わります。これは非常に検証可能な最適化問題です。
これらの超大規模クラウドプロバイダーは、完全にカスタムカーネルを自社開発する能力を持っています。もちろん、NVIDIAのコストパフォーマンスが依然として優れているため、彼らは依然としてNVIDIAを選択するかもしれません。しかし、そうなると問題は、「最終的に、単にハードウェアの仕様の良さ、および1ドルあたりの演算能力と帯域幅の多さを競うだけになってしまうのか?」ということになります。
歴史的にNVIDIAはCUDAというモートールによって、AIハードウェアおよびソフトウェアで70%以上の利益率を維持してきました。しかし、現在の問題は、あなたの最大の顧客が、このモートールを回避する能力を有している場合、あなたがこのような高い利益率を維持できるのかという点です。
黄氏:私たちは、これらのAIラボに驚異的な数のエンジニアを割り当て、彼らと協力してソフトウェアスタックの最適化を行っています。その理由は、誰よりも私たちが自社のアーキテクチャを理解しているからです。これらのアーキテクチャはCPUほど汎用的ではありません。CPUは、ある意味でキャデラックに似ており、運転しやすく、スピードを出しすぎず、クルーズコントロールも備わっていて、とても簡単です。誰でもある程度うまく運転できます。一方、NVIDIAのGPUやアクセラレータは、F1カーに似ています。誰でも時速160kmまでは運転できるでしょうが、限界まで引き出すには相当の専門知識が必要です。私たちは、大量のAIを用いてカーネルを書いています。
私は、当面の間、私たちが依然として必要とされ続けると確信しています。私たちの専門知識は、AIラボのパートナーが簡単に2倍の性能向上を達成できるように支援します。あるカーネルやソフトウェアスタック全体を最適化した後、モデルの速度が50%、2倍、さらには3倍になることはよくあります。彼らが所有するHopperやBlackwellのクラスター規模を考えると、これは非常に大きな数字です。性能が2倍になれば、直接的に収益も2倍になります。
NVIDIAのコンピューティングスタックは、総所有コスト(TCO)において世界最高であり、他社に匹敵するものはありません。どのプラットフォームも、私たちより優れた性能/TCO比を示すことができません。Dylan氏のInferenceMAXベンチマークテストがそこにあり、誰でも利用できます。しかし、TPUはこれをテストせず、Trainiumもテストしていません。私は、彼らがInferenceMAXを使って、自らが主張する「極めて低い推論コスト」を示すことを強く推奨します。しかし、なかなかそうしてくれません。
MLPerfについても、Trainiumが主張する40%の優位性をぜひ示してほしいと思います。また、TPUのコスト優位性もぜひ示していただきたいです。しかし、私の見解では、第一原理から考えて、彼らが主張する優位性はまったく筋が通りません。したがって、私たちが成功している理由は単純で、TCOが非常に優れているからです。
第二に、あなたは私たちの顧客の60%が上位5つのクラウドプロバイダーであると言いましたが、これらのビジネスの多くは外部向けです。例えば、AWSでNVIDIAチップを使用しているのは、主に外部顧客であり、内部利用ではありません。Azureの顧客も明らかに外部向けであり、オラクルも同様です。彼らが私たちを支持するのは、私たちの影響力が大きく、世界最高の顧客を引き付け、それらの顧客がすべてNVIDIA上で構築されているからです。そして、これらの企業がNVIDIA上で構築されるのは、私たちの影響力と多機能性が非常に強いからです。
したがって、このフィードバックループ(飛輪)は、インストールベース、アーキテクチャのプログラマビリティ、エコシステムの豊かさ、そして世界中の数千社のAI企業という要素で構成されています。もしAIスタートアップ企業であれば、どのアーキテクチャを選ぶでしょうか? 最も豊かなものを選びますよね。そして、それが私たちです。インストールベースが最大のものを選びますよね。そして、それが私たちです。エコシステムが最も整ったものを選びますよね。それが飛輪です。
以上の点を総合すると、私たちの1ドルあたりのパフォーマンスが最も優れており、顧客のトークンコストが最低です。私たちの1ワットあたりのパフォーマンスは世界最高であり、パートナーが1ギガワットのデータセンターを建設する場合、そのデータセンターは最大限の収益とトークンを生み出すことが望まれます。これは直接収益につながります。収益を最大化するためには、可能な限り多くのトークンを生成することが望まれます。そして、私たちのアーキテクチャは、世界で最も高い1ワットあたりのトークン数を実現しています。また、インフラストラクチャーのレンタルを目的とする場合、私たちには世界最多の顧客がいます。これが飛輪が回る理由です。
パテル氏:興味深いですね。結局のところ、実際の市場構造は一体どうなっているのかという問題に帰着します。なぜなら、他の企業が存在しても、世界中の数千社のAI企業が、それぞれほぼ等しい演算能力のシェアを占める世界が想像できます。しかし現実には、たとえこの5つの大規模クラウドプロバイダーを通じても、アマゾンで実際に演算能力を使っているのは、Anthropic、OpenAI、そして大型の基礎研究ラボです。これらの大手プレイヤーは、自らのリソースと能力をもって、異なるアクセラレータを稼働させることができます。
もし、あなたが述べたコストパフォーマンスや1ワットあたりのパフォーマンスなどの利点がすべて事実であるなら、なぜAnthropicのような企業が、数日前にブロードコムとグーグルと多ギガワット規模のTPU取引を発表し、その大部分の演算能力をTPUに移行したのでしょうか? グーグルにとっても、TPUは彼らの大部分の演算能力を占めています。したがって、これらの大型AI企業を見ると、かつてはすべてNVIDIAだった演算能力が、今はそうではないように見えます。もし紙面上のこれらの優位性がすべて成立しているなら、なぜ彼らはあえて他のアクセラレータを選んだのでしょうか?
黄氏:Anthropicは、単なる特例であり、大きなトレンドではありません。考えてみてください。もしAnthropicという会社が存在しなかったら、TPUの成長はどこから来ていたでしょうか? 100%Anthropicによるものです。同様に、もしAnthropicが存在しなかったら、Trainiumの成長はどこから来ていたでしょうか? これも100%Anthropicによるものです。これは、ほぼ公然の秘密です。ASICの機会が増えたわけではなく、単にAnthropicという1社があるだけです。
パテル氏:しかし、OpenAIとAMDの間には取引があり、彼らは自社でTitanアクセラレータを開発しています。
黄氏:はい、しかし、誰もが認めているのは、彼らの大部分の演算能力は依然としてNVIDIA上で稼働しているということです。私たちは、これからも一緒に多くの仕事を行います。私は、他のものを使用したり、他のものを試したりすることを否定しません。彼らが試さなければ、私たちの良さをどうやって知るのでしょうか? 時には、私たちの良さを思い出させる必要もあるでしょう。私たちは、今ある地位を常に勝ち取っていかなければなりません。
誰かが大風呂敷を広げることもあります。いくつものASICプロジェクトがキャンセルされたかを考えてみてください。ASICを作ると言っても、NVIDIAより優れたものを創出する必要があります。これは簡単ではありません。実際には、NVIDIAに何らかの欠陥がない限り、これは不合理です。しかし、私たちの規模とスピードは目に見えるものであり、世界で唯一、毎年新製品を投入し、毎年大きな飛躍を遂げる企業です。
パテル氏:彼らの論理は、NVIDIAより優れておく必要はなく、70%程度の性能差に留まればよいということかもしれません。なぜなら、あなたに支払う利益率が70%だからです。
黄氏:いいえ、ASICの利益率も非常に高いことを忘れないでください。仮にNVIDIAの利益率が70%で、ASICの利益率が65%だとしましょう。あなたは何を節約できたのでしょうか?
パテル氏:ブロードコムのような企業のことをおっしゃっているのですか?
黄氏:そうです。あなたは他の企業に支払いをしなければなりません。私の知る限り、ASICの利益率は非常に高く、彼ら自身もその驚異的なASIC利益率を誇りに思っています。
では、なぜ(彼らがNVIDIAを使わないのか)という問いに戻ります。昔の話ですが、当時は私たちにはそれができませんでした。当時、OpenAIやAnthropicのような基礎AIラボを立ち上げるのがどれほど困難か、そして、それらのラボがサプライヤー自身からの巨額投資を必要としていることを、私は深く理解していませんでした。当時、私たちは数十億ドルをAnthropicに投資して、彼らが私たちの演算能力を使うようにするという能力がありませんでした。しかし、グーグルやAWSにはその能力がありました。彼らは当初から巨額の投資を行い、その見返りとしてAnthropicは彼らの演算能力を利用しました。当時の私たちには、それができませんでした。
私の失敗は、彼らが本当に他に選択肢がないということを深く理解していなかったことです。ベンチャーキャピタルが、50〜100億ドルをAIラボに投資して、それがAnthropicになることを期待するというのはあり得ないことです。これが私の失敗です。しかし、たとえ当時理解していたとしても、私たちにはそれを実行する能力はなかったでしょう。しかし、私は二度とそのような失敗を繰り返しません。
私はOpenAIへの投資を喜んで行い、彼らの拡張を支援することも喜んで行います。これは必要であると信じています。その後、私がその能力を持ったとき、Anthropicが私たちを訪ねてきたので、私は喜んで投資家となり、彼らの拡張を支援することを喜びました。当時はそれができませんでした。もしすべてをやり直せるなら、今のNVIDIAと同じ規模の当時のNVIDIAであれば、私は喜んでそうしたでしょう。
なぜNVIDIAは超大規模クラウドプロバイダーにならないのか?
パテル氏:長年にわたり、NVIDIAはAI分野で儲かり、しかも非常に儲かっている企業でした。今、あなたは投資活動を行っており、報道によれば、OpenAIには300億ドル、Anthropicには100億ドルを投資したとされています。今や彼らの評価額は上昇しており、今後もさらに上昇すると信じています。ですから、これらの大企業が成長する方向性をあなたが把握し、1〜2年前の価値は現在の10分の1、あるいは1年前の価値は現在のそれよりずっと低かったことを考えると、あなたはその時点で巨額の投資をして、基礎研究ラボになるか、あるいは現在の評価額でより早くこれらの取引を行うべきだったのではないでしょうか? また、あなたには資金があります。では、なぜそうしなかったのでしょうか?
黄氏:私たちが可能な限り早く、かつ能力ができたときにすぐに行動しました。もし私ができるなら、もっと早く行動したでしょう。Anthropicが私たちに求めたとき、私たちはまだその能力がなく、そのようなことは考えてもいませんでした。
パテル氏:それはどういうことですか? 資金の問題ですか?
黄氏:はい、つまり投資規模の問題です。当時、私たちが会社の外で投資をしたことは一度もなく、ましてやそのような巨額の投資をしたことはありませんでした。私たちは、その必要性を認識していませんでした。私はいつも、彼らは他のすべての企業と同じようにベンチャーキャピタルから資金調達できると思っていたのです。しかし、彼らがやりたいことは、ベンチャーキャピタルにはできないのです。OpenAIがやりたいことも、ベンチャーキャピタルにはできません。今では理解していますが、当時は知りませんでした。
しかし、それが彼らの天才性の所以であり、彼らが賢いのはそこです。彼らは当時から、そうしたことをしなければならないと気づいていたのです。私は、彼らがそれを成し遂げたことに喜びを感じています。それがAnthropicを他の企業に任せることになったとしても、私はそれが起こったことに喜びを感じています。Anthropicの存在は世界にとって良いことであり、私はそれを喜んでいます。
パテル氏:あなたは今でも多くのお金を稼いでおり、四半期ごとにその金額は増えています。あなたにはこれだけのお金があるのだから、NVIDIAはそれを何に使えばよいのでしょうか? 一つの答えは、資本支出をこれらのラボの運用支出に変換する中間業者エコシステムが既に出現しており、彼らが演算能力を借りられるようにしているという点です。なぜならチップは非常に高価ですが、AIモデルがどんどん良くなっているため、その寿命の中で多くのお金を稼ぐことができるからです。それらが生成するトークンの価値は増加していますが、展開コストは高いのです。NVIDIAは資本支出を行う資金を持っています。実際、報道によれば、あなたはCoreWeaveを63億ドルで支援しており、すでに20億ドルを投資しています。では、なぜNVIDIA自身がクラウドプロバイダーにならないのでしょうか? なぜ、NVIDIA自身が超大規模クラウドプロバイダーになり、自ら演算能力をレンタルしないのでしょうか?
黄氏:これは私たちの会社の理念であり、私はそれが賢明であると考えています。私たちは、「必要なことだけを行い、できる限り最小限に抑える」べきです。つまり、私たちがコンピューティング・プラットフォームを構築するという仕事において、私たちがやらないなら、誰もやらないと私は本気で信じています。私たちが冒すリスクを誰も冒さず、私たちがNVLinkをこのように構築せず、ソフトウェアスタック全体をこのように構築せず、エコシステムをこのように構築せず、20年間CUDAを投資し、その大部分の期間で赤字を出さなかったとしたら、誰もそれをやらないでしょう。
私たちが特定分野向けのすべてのCUDA-Xライブラリを作成しなければ、15年前から始まった特定分野向けライブラリの開発も行われなかったでしょう。なぜなら、光線追跡、画像生成、初期のAI作業、これらのモデル、データ処理、構造化データ処理、ベクトルデータ処理など、特定分野向けライブラリを作成しないと、誰も作らないと私は完全に信じているからです。cuLithoという計算リソグラフィ向けのライブラリを作成したのも、私たちです。もし私たちが作らなければ、誰も作らないでしょう。したがって、アクセラレーテッド・コンピューティングが今日のような進歩を遂げたのは、私たちがこうしたことをしたからです。
したがって、私たちはこのことをすべきであり、全身全霊をかけて全力で取り組むべきです。しかし、世界には多くのクラウドがあります。もし私がやらないとしても、誰かがやるでしょう。したがって、「必要なことだけを行い、できる限り最小限に抑える」という理念を貫き、それは私たちの会社の日々の業務に反映されています。私が行うすべてのことは、この視点から見ています。
クラウドに関して言えば、もし私たちがCoreWeaveの存在を支援しなければ、これらの新しいクラウド、これらのAIクラウドは存在しません。私たちがCoreWeaveを支援しなければ、彼らは存在しません。Nscaleを支援しなければ、彼らは今日のような成果を上げられません。Nebiusを支援しなければ、彼らも今日のような存在にはなりません。今、彼らは非常に優れた成果を上げています。
これは一種のビジネスモデルです。私たちは、必要なことだけを行い、できる限り最小限に抑えるべきです。したがって、私はエコシステムに投資しています。なぜなら、私のエコシステムが繁栄することを望んでいるからです。私は、このアーキテクチャ、AIが可能な限り多くの業界、可能な限り多くの国に浸透し、地球上のすべてのものがAIの上に構築され、そしてアメリカの技術スタックの上に構築されることを望んでいます。このビジョンこそが、私たちが追求しているものです。
もう一点、多くの優れた基礎モデル企業があり、私たちはできる限りすべてに投資しています。これは
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News














