
黄仁勲氏最新インタビュー全文:中国市場からの撤退は「敗北者マインドセット」——演算能力の輸出規制など、中国AIを阻止できない
TechFlow厳選深潮セレクト

黄仁勲氏最新インタビュー全文:中国市場からの撤退は「敗北者マインドセット」——演算能力の輸出規制など、中国AIを阻止できない
「私たちがコンピューティング・プラットフォームの構築において行っている作業は、もし私たちが行わなければ、本当に誰も行わないだろうと確信しています。」
編集・翻訳:TechFlow

ゲスト:ジェンスン・ファン(Jensen Huang)、NVIDIA 創業者兼CEO
司会:ドワルケシュ・パテル(Dwarkesh Patel)
ポッドキャスト元:ドワルケシュ・パテル
オリジナルタイトル:Jensen Huang – NVIDIAの「モート(護城河)」は持続するか?
放送日:2026年4月16日
要点サマリー
本稿は、NVIDIA CEOのジェンスン・ファン氏との対談を通じて、TPU(テンソル処理ユニット)がAIコンピューティング分野におけるNVIDIAの主導的地位に与える潜在的影響、先端チップサプライチェーンへの支配力、中国へのAIチップ販売の是非、NVIDIAがなぜ自らハイパースケーラー(超大規模クラウド事業者)にならないのか、および同社のチップアーキテクチャや投資戦略に関する選択肢などについて考察しています。

注目すべき主張の要約
NVIDIAの本質とその「モート(護城河)」について
- 「結局のところ、電子をトークンに変換する何かが必要であり、この変換プロセスおよびトークンの価値を時間とともに高めていくプロセスは、容易に商品化できるものではありません。われわれの仕事は、この変換を実現するために、必要不可欠なことを可能な限り多く行い、不必要なことは可能な限り少なく行うことです。」
- 「なぜ彼ら(サプライチェーンパートナー)は、他の企業ではなくわれわれのために投資するのでしょうか?それは、彼らがNVIDIAが自社の供給量を確実に吸収し、下流の販売を通じて市場に出荷できることを理解しているからです。NVIDIAの下流サプライチェーンと需要規模は非常に大きく、そのため彼らは上流で賭けを敢行するのです。」
- 「すべてのボトルネックは、いずれも2~3年を超えて継続することはありません。例外は一つもありません。私が懸念しているのはむしろ下流の課題——たとえばエネルギー開発を阻害する政策です。エネルギーがなければ産業は築けません。エネルギーがなければ再工業化も進められません。」
CUDAと専用ASIC(特定用途向け集積回路)の競合について
- 「NVIDIAが提供しているのは『テンソル処理ユニット』ではなく『アクセラレーテッド・コンピューティング(高速化された計算)』です。アクセラレーテッド・コンピューティングの適用範囲ははるかに広く……われわれは、あらゆるアプリケーションを高速化する唯一の企業であり、膨大なエコシステムを有しています。」
- 「NVIDIAのGPUはアクセラレーターであり、F1カーに近い存在です。一般人が時速100kmで走るのは問題ありませんが、限界まで押し上げるには相当な技術力が必要です。われわれはAIを多用して、自社のカーネルを大量に生成しています。」
- 「NVIDIAのコンピューティングスタックは、世界で最もコストパフォーマンスに優れたものです。例外はありません。今日時点で、われわれより優れた性能/総所有コスト比(TCO)を実現しているプラットフォームは、どこにも存在しません。」
企業哲学と投資戦略について
- 「われわれは、必要不可欠なことを可能な限り多く行い、不必要なことは可能な限り少なく行うべきです。つまり、われわれがコンピューティングプラットフォーム構築において行っている作業は、もしわれわれが行わなければ、本当に誰も行わないだろうというレベルのものです。しかし、クラウドサービスは世界中に溢れており、もしわれわれがこれを提供しなかったとしても、必ず他社が提供します。」
- 「私の失敗は、当時、彼らには他に選択肢がないという事実を深く理解していなかった点にあります——ベンチャーキャピタルがAIラボに50億ドルから100億ドルもの巨額投資を行うことは絶対にあり得ないという認識が欠けていました。これが私の盲点でした。もし時間が巻き戻せるとすれば、当時のNVIDIAが今日のような規模を持っていたなら、私は喜んでそうしたでしょう。」
中国市場と地政学(最も注目を集めたトピック)について
- 「安全な世界を築く最善の方法とは何でしょうか?相手を被害者として扱い、敵に変えるというのは、おそらく最良の答えではないでしょう。彼らはライバルではありますが、米国が勝利することを願っています。しかし、対話と研究交流を維持することが、最も安全な道であると考えます。」
- 「『敗北者』というメンタリティ、あるいは『敗北者』という前提は、私にはまったく意味がありません。あなたが提示したような前提に基づいて市場を諦めることなど、到底受け入れられません。それは無意味です。なぜなら、私は米国が敗北者だとは考えておらず、我が産業も敗北者ではないからです。」
- 「十分なエネルギーがあれば、チップの不足を補うことができます。ワット数が十分に潤沢で、ほぼ無料に近い場合、1ワットあたりの性能など気にする必要はありません。古いチップをただひたすら積み重ねればよいのです。7nmチップは、本質的にHopper世代と同等であり、十分に機能します。」
- 「DeepSeekが、ファーウェイ製チップ上で初日からリリースされた日は、我が国にとって悪い結果でした……もしすべてのAIモデルが他社の技術スタック上で最高のパフォーマンスを発揮するならば、それが米国にとって良いことだと本当に言えるのでしょうか?」
ソフトウェア、エージェント(Agent)、そして将来について
- 「現在はエンジニアの人数に制約されていますが、明日は多数のエージェントがこれらのエンジニアを支援するようになります。それにより、我々はかつてないほど広範な設計空間を探求できるようになるでしょう……ツールの利用によって、ソフトウェア企業の規模は爆発的に拡大します。ただし、これはまだ実現していません。理由は、エージェントがツールを十分に使いこなせていないからです。」
- 「NVIDIAを信頼できる一点は、今年はVera Rubinが傑出した性能を発揮し、来年はVera Rubin Ultraが登場し、その翌年にはFeynmanが登場することです。毎年、時計のように確実にそれを期待できます。」
アーキテクチャとワークロードについて
- 「このような(複数のアーキテクチャ開発)ことは可能です。ただ、われわれにはより優れたアイデアがないだけです。シミュレーターで全て試験済みですが、結果は悪化しましたので、こうした方向には進みません。」
- 「これまで、高いスループットが常に望ましかったのですが、今後は単価の極めて高いトークンが存在する世界が到来する可能性があります。工場のスループットが低くても、その高い単価によって差を埋められるのです。これがわれわれがパレート境界を拡張することを決めた理由です。」
NVIDIAのサプライチェーン優位性は、最大の「モート(護城河)」なのか?
司会 ドワルケシュ:ソフトウェア企業の株式評価額が崩落しているのを目にしています。その原因は、市場がAIによってソフトウェアが商品化されると予想しているためです。一見単純なロジックがあります。すなわち、NVIDIAがGDS2ファイルをTSMCに送り、TSMCが論理チップとスイッチを製造し、SKハイニックス、マイクロン、サムスンのHBMとパッケージングされ、その後台湾のODMが完成品の組立を行います。この視点から見れば、NVIDIAは本質的にソフトウェア企業であり、製造は他社が代行しているにすぎません。もしソフトウェアが商品化されれば、NVIDIAもまた商品化されるのではないでしょうか?
ジェンスン・ファン:
結局のところ、電子をトークンに変換する何かが必要であり、この変換プロセスおよびトークンの価値を時間とともに高めていくプロセスは、容易に商品化できるものではありません。あるトークンを他のトークンよりも価値あるものにするという行為は、ある分子を他の分子よりも価値あるものにするのと同様であり、そこに含まれる芸術性、工学、科学、発明といった要素は、まさに今、我々が目の当たりにしているものです。トークンを作成するために必要な変換、加工、および背後にある科学は、まだ十分に解明されておらず、この旅はまだ終わっていません。私は、それが商品化されることはないと思います。あなたが描いたこの枠組みは、実は私が自社に対して抱いている心的モデルそのものです:入力は電子、出力はトークン、その間をつなぐのがNVIDIAです。われわれの仕事は、この変換を実現するために、必要不可欠なことを可能な限り多く行い、不必要なことは可能な限り少なく行うことです。「可能な限り少なく」というのは、自分自身でやらざるを得ない以外のことは、パートナーに任せ、自社のエコシステムの一部にしてしまうということです。今日のNVIDIAを見れば、われわれは世界最大規模のパートナーエコシステムを有しており、上流のサプライチェーン、下流のすべてのPCメーカー、アプリケーション開発者、モデル企業などが含まれています。
AIは5層のケーキ(アプリケーション、モデル、インフラ、チップ、エネルギー)であり、われわれは各層にエコシステムを構築しています。われわれはできるだけ少ない仕事を行いますが、その一方で、どうしてもやらなければならない仕事は、極めて困難なものばかりです。私はそれが商品化されることはないと思います。実際、私は企業向けソフトウェア企業やツールベンダーが商品化されることもないと思います。今日の大半のソフトウェア企業は本質的にツールメーカーですが、私が見ているのは大多数の人々とは逆の光景です:AIエージェントの数は指数関数的に増加し、ツールの利用者も指数関数的に増加します。Synopsys Design Compilerのインスタンス数は急増するでしょうし、レイアウトツールや設計ルールチェックツールを利用するエージェントの数も急増するでしょう。今日、我々はエンジニアの人数に制約されていますが、明日はこれらエンジニアを多数のエージェントが支援するようになり、我々はこれまでにないほど広範な設計空間を探求できるようになります。しかも、使うのは今日と同じツールです。ツールの利用によってソフトウェア企業の規模が爆発的に拡大するという現象は、まだ起きていない理由は、エージェントがツールを十分に使いこなせていないからです。これらの企業が自らエージェントを構築するか、あるいはエージェントがツールを使いこなせるほど強力になるかのどちらかが起こるでしょう。私は、両方が起こると考えています。
司会 ドワルケシュ:最新の決算報告書には、ファウンドリ、メモリ、パッケージングに対する約1,000億ドルの調達コミットメントが記載されています。SemiAnalysisのレポートによると、この数字は2,500億ドルに達する可能性があるとのことです。ある解釈では、NVIDIAの真の「モート(護城河)」は、数年にわたって希少な生産能力を確保していることにあり、他の企業もアクセラレーターを有しているかもしれないが、彼らはメモリを入手できるのか?論理チップを入手できるのか?これがNVIDIAの今後数年の最大の「モート(護城河)」なのでしょうか?
ジェンスン・ファン:
これは、われわれができるが、他社には難しいことの一つです。われわれは上流に対して莫大なコミットメントをしており、その中にはあなたが指摘した明示的なコミットメントだけでなく、暗黙のコミットメントもあります。例えば、上流の多くの投資は、われわれのサプライチェーンパートナーが自発的に行ったものです。なぜなら、私は彼らのCEOに対し、「この業界がどれほど巨大になるかをお伝えしましょう。その理由をご説明しましょう。一緒に推演してみましょう。私が見ているものをご提示しましょう」と語ってきたからです。こうした不断の情報提供、啓発、CEOとの協働プロセスを通じて、彼らは投資を決断したのです。なぜ彼らは、他の企業ではなく、われわれのために投資するのでしょうか?彼らは、NVIDIAが自社の供給量を確実に吸収し、下流の販売を通じて市場に出荷できることを理解しているからです。NVIDIAの下流サプライチェーンと需要規模は非常に大きいため、彼らは上流で賭けを敢行するのです。GTCを見れば、その規模と参加者のレベルの高さに驚嘆します——AIの宇宙全体がそこにあるのです。360度全方位にわたってカバーされているのは、彼らが互いに顔を合わせる必要があるからです。私は彼らを集めて、下流が上流を見ることができるようにし、上流が下流を見ることができるようにし、全員がAIの最新の進展を見ることができるようになっています。重要なのは、彼らがAIネイティブ企業やAIスタートアップが実際に何をしているのかを直接目撃し、私がずっと伝えてきたことを検証できることです。私は、サプライチェーン、パートナー、エコシステムが直面している機会を理解できるよう、直接的・間接的に多大な時間を費やしています。
われわれの基調講演には、いつも少し重苦しい部分があり、まるで授業を受けているようです——その通り、それが私の狙いなのです。私は、上流および下流のサプライチェーン全体が、何が来るのか、なぜ来るのか、いつ来るのか、そしてどの程度の規模で来るのかを理解し、さらに、私が行っているように体系的に推演できるようにしたいのです。あなたが指摘した「モート(護城河)」について言えば、われわれは未来に向けて建設することができます。もし今後数年の業界規模が兆ドル単位であるなら、われわれはそれに応えられるサプライチェーンをすでに有しています。われわれのカバレッジがなければ、われわれのビジネスのスピード——キャッシュフローと同様に、サプライチェーンにも流量とターンオーバーがあります——は、誰も低ターンオーバーのアーキテクチャのためにサプライチェーンを構築しようとはしないでしょう。われわれがこの規模を維持できるのは、下流の需要が非常に強く、彼らが見て、聞いて、すべてを目の当たりにしているからです。
司会 ドワルケシュ:上流の生産能力が十分かどうか、もう少し具体的にお聞きしたいと思います。長年にわたり、あなた方は年率2倍の成長を遂げ、算力供給は年率3倍以上を実現しています。この規模での2倍成長は、本当に驚異的です。あなた方はTSMCのN3ノード最大の顧客であり、N2ノードでも主要な顧客の一つです。今年、AI全体がN3の60%を占めると予測され、SemiAnalysisの予測では、来年には86%に達するとされています。すでにシェアの大部分を占めている状況で、どうやって2倍成長を実現できるのでしょうか?しかも、年々それを継続するのでしょうか?
ジェンスン・ファン:
ある意味で、グローバルな瞬間的な需要は、上流・下流の供給を上回っています。あなたが望む業界というのは、まさにこのようなものです。瞬間的な需要が業界全体の供給を上回るという状況であり、逆の状況は明らかに好ましくありません。もしギャップが大きくなりすぎると、特定の工程の供給が極端に不足し、業界全体が一斉にその解決に乗り出します。例えば、最近CoWoSについての議論が減ったのは、過去2年間にわれわれがこのボトルネックに集中攻撃し、複数回にわたって供給を大幅に増やしたからです。今やTSMCも理解しています:CoWoSの生産能力は、論理チップやメモリの需要ペースに合わせて拡大しなければならない。彼らは、論理チップと同様のペースでCoWoSおよび将来のパッケージング技術を拡充しています。長い間、CoWoSとHBMは特殊な製品と見なされてきましたが、今はもはや特殊なものではありません——人々は、これが主流のコンピューティング技術であることに気づいたのです。もちろん、われわれは今や、より広範なサプライチェーンに影響を与えることができるようになりました。AI革命が始まった当初から、私が今日語っていることは、5年前から語っていたことです。それを信じて投資した人々もいます。サンジャイ氏やマイクロンチームなど——あの会議を今でも鮮明に覚えています。私は、何が起こるのか、なぜ起こるのか、そして私の予測を明確に説明しました。彼らは本当に賭けに出ました。LPDDRおよびHBMメモリに関しては、われわれは密接に協力し、彼らは大胆に投資しました。その結果は、彼らにとって非常に良かったのです。遅れて参入した人々もいますが、今では全員が揃っています。すべてのボトルネックは、大量の注目を集めています。そして、われわれは今、数年先のボトルネックを予測しています。例えば、過去数年間、われわれはLumentum、Coherent、およびシリコンフォトニクスのエコシステム全体と協力し、サプライチェーンを完全に再構築しました。われわれはTSMC周辺に一連のサプライチェーンを構築し、COUPEで彼らと協力して、一連の技術を発明し、特許をサプライチェーンにライセンス供与して、エコシステム全体をオープンに保っています。われわれは、新技術、新しいワークフロー、両面プローブなどの新しいテスト装置、企業への投資を通じて、彼らが生産能力を拡大できるよう支援し、スケール化の課題に備えています。
もしわれわれがソフトウェアエンジニアになるのを止めさせれば、ソフトウェアエンジニア不足に直面することになります。同じような予言は10年前にもありました。ある終末論者は、「とにかく、放射線科医になってはいけない」と言っていました。今でもネット上でその動画を見つけることができるかもしれません。放射線科医は最初に消える職業であり、世界はもはや放射線科医を必要としないという内容です。さて、今、何が不足しているでしょうか?放射線科医です。
司会 ドワルケシュ:あなた方は、どのようにして毎年2倍の論理チップ製造量を実現しているのでしょうか?最終的には、メモリと論理チップの両方がEUVに依存しています。
ジェンスン・ファン:
これらは短期間で迅速に拡大できないものではありません。2~3年以内に解決可能です。必要なのは単なる需要の信号だけであり、これらを複製するのは難しくありません。さて、サプライチェーンにどこまで深く関わるべきか——一部は直接交渉し、一部は間接的に関わり、一部は「TSMCを説得できれば、ASMLは自然と追随する」というケースもあります。キーノードを考慮する必要がありますが、TSMCが説得されれば、数年以内に十分な数のEUVマシンが確保されます。要点は:すべてのボトルネックは2~3年を超えて継続することはありません。例外は一つもありません。一方で、われわれは各世代で10~20倍の計算効率向上を実現しており、HopperからBlackwellへは30~50倍の向上です。われわれはCUDAの柔軟性を活用して、新たなアルゴリズムを絶えず発明し、効率向上を推進しながら、同時に生産能力を拡大しています。これらについては、私は一切心配していません。私が懸念しているのはむしろ下流の課題——たとえばエネルギー開発を阻害する政策です。エネルギーがなければ産業は築けません。エネルギーがなければ再工業化も進められません。チップ製造、コンピュータ製造、パッケージングを米国に持ち帰ることもできません。EVやロボットの製造もできません。AIファクトリーの建設もできません。さらなるチップ生産能力の確保は、2~3年の問題です。さらなるCoWoS生産能力の確保も、2~3年の問題です。
TPUはNVIDIAのAIコンピューティング分野における主導的地位を脅かすか?
司会 ドワルケシュ:TPUを見てみると、グローバルトップ3のモデルのうち2つ——ClaudeとGemini——がTPU上でトレーニングされているという見解があります。これはNVIDIAにとって何を意味するのでしょうか?
ジェンスン・ファン:
われわれが行っているのは、まったく異なるものです。NVIDIAが提供しているのは『テンソル処理ユニット』ではなく『アクセラレーテッド・コンピューティング(高速化された計算)』です。アクセラレーテッド・コンピューティングは、分子動力学、量子色力学、データ処理、データフレーム、構造化データ、非構造化データ、流体力学、粒子物理学など、さまざまな分野で使用され、AIにも使用されます。アクセラレーテッド・コンピューティングの適用範囲ははるかに広く、今日話題になっているのはAIであり、AIは確かに非常に重要ですが、計算の範囲はAIをはるかに超えています。NVIDIAは、汎用計算からアクセラレーテッド・コンピューティングへと、計算の方法を再定義しました。われわれの市場カバレッジは、TPUやASICの可能範囲をはるかに凌駕しています。われわれの市場地位を見てください——われわれは、あらゆるアプリケーションを高速化する唯一の企業であり、膨大なエコシステムを有しています。あらゆるフレームワークやアルゴリズムがNVIDIA上で動作します。なぜなら、われわれのコンピュータは外部の運用者向けに設計されており、誰でも購入できるからです。ほとんどの自社開発システムは、自社で運用しなければならず、他人が運用できるほど柔軟に設計されていません。だからこそ、われわれのシステムはGoogle、Amazon、Azure、OCIを含むすべてのクラウドに存在します。レンタルで利益を得たいなら、あらゆる業界からの大量の顧客エコシステムを持つことが最適です。自社で使用したいなら、われわれはElonのxAIを支援したように、あなたを支援できます。そして、われわれはあらゆる企業、あらゆる業界の運用者が展開できるように設計されているため、Lillyの科学研究や創薬のためのスーパーコンピュータを構築し、彼らが自社のスーパーコンピュータを運用できるように支援できます。創薬やバイオサイエンスの多様なニーズに対応できます。TPUではカバーできないアプリケーションシナリオが多すぎます。NVIDIAはCUDAを、優れたテンソル処理ユニットとして構築しましたが、同時にデータライフサイクルのすべての段階——処理、計算、AI——をカバーしています。われわれの市場機会はより大きく、カバレッジはより広いのです。なぜなら、われわれは世界中のすべてのアプリケーションをサポートしており、どこにNVIDIAシステムを構築しても、必ず顧客がそれを使用するからです。これはまったく異なることです。
司会 ドワルケシュ:これは長い質問です。あなた方は驚異的な売上を上げており、四半期あたり600億ドルですが、それは医薬品や量子計算からではなく、AIという前例のない技術からであり、それは前例のない速度で成長しています。問題は、AI自体にとって、何が最適なのかということです。
私はAI研究者たちと話をしましたが、彼らはTPUを使用すると、行列乗算に最適化された巨大なパルスアレイであると言います。一方、GPUは柔軟性が高く、多くのブランチや不規則なメモリアクセスを伴うシナリオに適しています。しかし、AIとは何でしょうか?それは、極めて予測可能な行列乗算を何度も繰り返すだけです。TPUはワープスケジューラーやスレッドとメモリバンク間の切り替えのためにチップ面積を犠牲にする必要がなく、現在の算力成長の主なユースケースに深く最適化されています。これについてどうお考えですか?
ジェンスン・ファン:
行列乗算はAIの重要な一部ですが、すべてではありません。新しいアテンション機構を発明したり、異なる方法でシャーディングしたり、または混合SSMのような全く新しいアーキテクチャをゼロから設計したりする場合、汎用プログラマブルなアーキテクチャが必要です。拡散モデルと自己回帰技術を融合したモデルを作成する場合も、同様に汎用プログラマブルなアーキテクチャが必要です。われわれは、あなたが思いつくあらゆるものに対応できます。これがわれわれの強みです。プログラマビリティは、新アルゴリズムの発明をはるかに容易にし、AIの進歩がこれほど速い根本的な理由です。TPUも他のすべてのものと同様に、ムーアの法則の影響を受けます——ムーアの法則は年間約25%の向上をもたらします。10倍、100倍の飛躍を実現する唯一の方法は、アルゴリズムと計算方式を毎年根本的に変えることです。これがNVIDIAの核心的な強みです。私がBlackwellのエネルギー効率がHopperより35倍向上すると最初に発表したとき、誰も信じませんでした。その後、ダイルンが記事を書き、私が過小評価していたと指摘し、実際には50倍であり、ムーアの法則だけではこれほど大きな向上は実現できないと述べました。われわれのソリューションは新しいモデル設計——たとえばMoE、計算システム全体にわたる並列化、シャーディング、分散配置——です。CUDAなしで新しいカーネルを生成する方法など、私はまったく知りません。これは、プログラマブルアーキテクチャとNVIDIAの究極の共同設計能力の結合です。われわれは、一部の計算をNVLinkのファブリックにオフロードしたり、Spectrum-Xのネットワークレイヤーにオフロードしたりできます。われわれは、プロセッサ、システム、ファブリック、ライブラリ、アルゴリズムの複数のレイヤーで同時並行的に革新を進めることができます。CUDAがなければ、私はどこから始めればいいのかさえ分かりません。
司会 ドワルケシュ:あなたの売上の60%は、五大ハイパースケーラーから来ています。異なる顧客時代——たとえば実験を行う教授——において、彼らはCUDAを必要とし、他のアクセラレーターを使うことはできず、PyTorchとCUDAを使う必要があります。しかし、これらのハイパースケーラーは、独自のカーネルを書くリソースを持っています。実際、彼らは特定のアーキテクチャで最後の5%のパフォーマンスを引き出すために、そうしなければなりません。AnthropicとGoogleの大部分は、自社のアクセラレーターやTPUおよびTrainium上で実行しています。OpenAIはGPUを使っていてもTritonを使用しており、独自のカーネルを必要とするため、cuBLASやNCCLを回避し、CUDA C++まで降りて独自のスタックを構築し、さらに他のアクセラレーターにコンパイルできるようにしています。
もし大多数の顧客が、ある程度CUDAを代替できるなら、CUDAは本当に最先端のAIをNVIDIA上で実現させる決定的要因なのでしょうか?
ジェンスン・ファン:
CUDAは極めて豊かなエコシステムです。もし最初に任意のアーキテクチャ上で構築したいなら、まずCUDA上で構築することは非常に賢明です。なぜなら、エコシステムが非常に豊かであり、あらゆるフレームワークをサポートしているからです。もしカスタムカーネルを作成したいなら、われわれはTritonに多大な貢献をしています——Tritonのバックエンドには、多くのNVIDIA技術が含まれています。われわれは、すべてのフレームワークが可能な限り優れたものになるよう、喜んで支援します。Triton、vLLM、SGLangなど、多くのフレームワークがあります。そして、現在爆発的に成長している後訓練および強化学習フレームワーク——verlやNeMo RLなど——があります。後訓練および強化学習という分野全体が、爆発的に拡大しています。ですから、もし何かのアーキテクチャ上で構築したいなら、CUDAを選ぶのが最も賢明です。なぜなら、エコシステムが豊かであることを知っているからです。問題が発生した場合、問題の原因はあなたのコードである可能性が高く、基礎となる巨大なコードベースにある可能性は低いからです。問題が発生したとき、それはあなたの問題か、それともマシンの問題か?あなたは常に自分の問題であってほしいと願い、マシンを信頼したいと願うはずです。もちろん、われわれ自身にも多くのバグがありますが、われわれのシステムは十分に磨き上げられており、少なくともその上に構築できるのです。次に、どこでもソフトウェアを構築する開発者にとって最も重要なことは、あなたのソフトウェアが多数の他のマシンで実行できる、巨大なインストール基数を持つことです。あなたは自分自身のためにソフトウェアを書くのではなく、自分のマシン群、あるいは他の人のマシン群全体のために書きます。なぜなら、あなたはフレームワーク構築者であり、NVIDIAのCUDAエコシステムは真のコアの宝庫だからです。われわれは現在、A10、A100、H100、H200、Lシリーズ、Pシリーズなど、あらゆるサイズと形状の数億個のGPUを世界中に展開しています。もしロボット企業なら、そのCUDA技術スタックがロボットそのもので直接実行されることを望むでしょう。われわれは至る所に存在します。巨大なインストール基数は、一度ソフトウェアやモデルを開発すれば、どこでも有用であることを意味します。この価値は、代替不可能です。最後に、われわれがすべてのクラウドに存在するという事実は、われわれを真にユニークなものにしています。もしAI企業や開発者であれば、どのクラウドプロバイダーを選ぶか、あるいはどこで実行するかが不確かです。われわれはどこでも実行できます。あなたのプライベートデプロイメントでも可能です。エコシステムの豊かさ、インストール基数の広範さ、そして展開の多様性——この三つが組み合わさって、CUDAの価値を極めて高くしています。
司会 ドワルケシュ:しかし、これらの優位性が主要顧客にとっても同様に重要なのか、私は疑問に思っています。大口顧客の中には、自社でソフトウェアスタックを構築できる人がたくさんいます。特に、AIが厳密な検証クローズドループを持つ分野でますます強力になるにつれ、この問題は——すべてのハイパースケーラーは自社でカーネルを書けるのでしょうか?NVIDIAは依然としてコストパフォーマンスが優れているため、彼らはおそらくNVIDIAを好むでしょう。しかし、問題は、これが単に仕様の良さ、1ドルあたりの算力やメモリ帯域幅の競争になるかどうかです。歴史的にNVIDIAの営業利益率は70%を超えています。これはCUDAの「モート(護城河)」のおかげです。もし大多数の顧客が実際にはCUDAを代替できるなら、この利益率は維持できるのでしょうか?
ジェンスン・ファン:
われわれは、これらのAIラボに驚くほど多くのエンジニアを割り当てており、彼らと協力して、彼らの技術スタックを最適化しています。その理由は単純です:誰もわれわれほど自社のアーキテクチャを理解していないからです。これらのアーキテクチャはCPUほど汎用的ではありません——CPUは、滑らかで豪華なクルーズコントロール付きのキャデラックのようなもので、速くはないものの、誰でも運転できます。NVIDIAのGPUはアクセラレーターであり、F1カーに近い存在です。一般人が時速100kmで走るのは問題ありませんが、限界まで押し上げるには相当な技術力が必要です。われわれはAIを多用して、自社のカーネルを大量に生成しています。私は、かなり長い間、われわれが不可欠であると確信しています。われわれの専門知識は、AIラボのパートナーが自社の技術スタックからさらに2倍の効率を引き出すのを支援します——しかも、しばしば非常に容易にです。われわれが特定のカーネルを最適化したり、彼らのスタック全体を最適化したりすると、彼らのモデルが2倍、3倍、あるいは50%加速することは非常に普通のことです。これは非常に大きな数字です。特に、彼らがすでに大量のHopperおよびBlackwellのインストール基数を持っている場合——効率が2倍になれば、それはそのまま収益の2倍に直結します。NVIDIAのコンピューティングスタックは、世界で最もコストパフォーマンスに優れたものであり、例外はありません。今日時点で、われわれより優れた性能/総所有コスト比(TCO)を実現しているプラットフォームは、どこにも存在しません。InferenceMAXベンチマークはそこにあり、誰でも実行できますが、TPUもTrainiumも実行していません。私は、彼らがInferenceMAXで主張する40%のコスト優位性を示すことを歓迎しますが、誰もそれをしようとしません。次に、あなたは売上の60%がトップ5の顧客から来ていると述べましたが、そのほとんどは外部向けのビジネスです——AWS上の大量のNVIDIAは外部顧客向けであり、AWS自体の利用ではありません。Azure上の顧客もすべて外部顧客であり、OCIも同様です。彼らがわれわれを好む理由は、われわれのカバレッジが極めて広範であり、あらゆる業界のトップクラスの顧客を呼び込むことができることです。これらの顧客はすべてNVIDIA上に構築されており、それはわれわれのカバレッジと柔軟性が比類ないからです。フィードバックループはこうです:インストール基数、アーキテクチャのプログラマビリティ、エコシステムの豊かさ、そして世界中の数万社のAI企業。もしAIスタートアップの一つなら、どのアーキテクチャを選ぶでしょうか?最も豊かなものでしょう。最も大きいインストール基数を持つものでしょう。最も豊かなエコシステムを持つものでしょう。これがフィードバックループが回る仕組みであり、さらに最高の単位算力収益と最高の1ワットあたり性能——もしパートナーがGW規模のデータセンターを建設すれば、そのデータセンターは最も多くのトークンと最大の収益を生み出す必要があります。われわれは世界で最も高いトークン/ワットのアーキテクチャです。もしインフラストラクチャーのレンタルを目的としているなら、われわれは世界で最も多くの顧客を持っています。これがフィードバックループが回る理由です。
司会 ドワルケシュ:Anthropicは、BroadcomおよびGoogleと提携したGW規模のTPU大口契約を先日発表しました。そして、彼らのほとんどの算力はTPUから来ています。もし大手AI企業を見れば、NVIDIAから算力が移動している一大塊が見えるようです。この現象をどう説明しますか?
ジェンスン・ファン:
Anthropicは例外であり、トレンドではありません。Anthropicがいなければ、TPUの成長はどこから来るのでしょうか?それは100%Anthropicによるものです。Anthropicがいなければ、Trainiumの成長はどこから来るのでしょうか?それも100%Anthropicによるものです。これは非常に広く知られており、ほとんどの人はそれを理解しています。これは、ASICの機会が山ほどあるというわけではなく、Anthropicという1つの企業があるだけです。
私は、他人が他のものを使用したり、新しい方向を試みたりすることを嫌うことはありません。彼らが他のものを試さなければ、われわれがどれほど優れているかを知ることはできません。時には、自分自身を思い出させるための参照点が必要です。われわれは、自社の市場地位を常に勝ち取らなければなりません。さまざまな大げさな主張がありますが、どれだけのASICプロジェクトがキャンセルされたかを見てください。NVIDIAより優れたものを構築するのは、簡単なことではありません。NVIDIAに何が問題があるのでしょうか?なぜこれが納得できるのでしょうか?それは、われわれの規模、反復のスピード、そして世界で唯一、毎年大きく前進している企業だからです。
ASICの利益率は非常に高く、NVIDIAは70%ですが、ASICは65%です。私が見られる限り、ASICの粗利益率は非常に良く、彼ら自身もそう考え、自社の優れたASIC粗利益率を誇りに思っています。では、なぜそうなるのでしょうか?昔は、われわれにはそんな能力がまったくありませんでした。当時、私はOpenAIやAnthropicのような基盤的なAIラボを立ち上げるのがどれほど困難であるか、そして彼らがサプライヤー自体から巨額の投資を必要としているかを深く理解していませんでした。当時、われわれにはAnthropicに数十億ドルを投資して、彼らにわれわれの算力を使用させるという能力がありませんでした。GoogleやAWSにはその能力があり、彼らは初期にAnthropicに大規模に投資し、Anthropicは彼らの算力を使用しました。当時、われわれにはその条件がありませんでした。私の失敗は、彼らには他に選択肢がないという事実を深く理解していなかった点にあります——ベンチャーキャピタルがAIラボに50億ドルから100億ドルもの巨額投資を行い、それが今日のAnthropicになることを期待することは絶対にあり得ないという認識が欠けていました。これが私の盲点でした。しかし、仮に当時理解していたとしても、われわれにはその条件がなかったかもしれませんが、私は二度と同じ過ちを犯さないでしょう。私はOpenAIへの投資を非常に嬉しく思っており、彼らのスケールアップを支援することを非常に嬉しく思っています。これは必須の行動だと考えています。われわれがその能力を持っていたとき、Anthropicがわれわれに来たとき、私は投資家になることを非常に嬉しく思い、彼らのスケールアップを支援することを非常に嬉しく思いました。ただ、当時はそれができなかっただけです。もし時間が巻き戻せるとすれば、当時のNVIDIAが今日のような規模を持っていたなら、私は喜んでそうしたでしょう。
NVIDIAはなぜ自らハイパースケーラーにならないのか?
司会 ドワルケシュ:長年にわたり、NVIDIAはAI分野でお金を稼いでおり、非常に多くのお金を稼いでいます。今、あなた方は投資を始めています。報道によると、OpenAIに300億ドル、Anthropicに100億ドルを投資したとのことです。彼らの評価額はすでに大幅に上昇しており、今後もさらに上昇するでしょう。長年にわたり、あなた方は彼らに算力を提供し、方向性を見抜いてきました。彼らの価値は1年前には今日の10分の1に過ぎませんでした——そしてそのとき、あなた方はすでに大量の現金を持っていました。
ある仮説があります:NVIDIAが自ら基盤的なモデルラボを設立するか、あるいは今日のような投資を、はるかに低い評価額で行うかのどちらかです。あなた方はその現金を持っています。なぜもっと早くそうしなかったのでしょうか?
ジェンスン・ファン:
われわれは、できるときにそれをやりました。もしもっと早くできたなら、そうしたでしょう。Anthropicがわれわれの行動を必要とした瞬間、われわれにはその条件がなく、そのような認識や思考パターンもありませんでした。
それは投資規模の問題です。当時、われわれは会社の外側で投資をしたことがなく、それほどの巨額の投資をしたこともありませんでした。その必要性に気づいていませんでした。私は、彼らが他のすべての企業と同じようにVCから資金調達できると思っていたのです。しかし、彼らが行おうとしていたことは、VCでは実現できないのです。OpenAIが行おうとしていたことも、VCでは実現できないのです。これが彼らの優れた点であり、彼らの賢さでもあります——彼らは、異なる道を歩む必要があることに、当時から気づいていたのです。私は、彼らがそうしたことに非常に嬉しく思います。われわれの不在により、Anthropicが他の企業に頼らざるを得なかったとしても、私はすべてが起こったことに非常に嬉しく思います。Anthropicの存在は世界にとって良いことであり、私はそれを嬉しく思います。
司会 ドワルケシュ:あなた方は依然として多額の収益を上げており、四半期ごとにさらに多くの収益を上げています。今の問題は、NVIDIAがこれらのお金で何をするべきかということです。ある答えは、CapExをOpExに変換し、これらのラボに算力をレンタル提供する中間業者エコシステムがすでに整っているというものです——チップは高価ですが、AIモデルがますます良くなっているため、その寿命内で生み出す価値はますます大きくなっています。NVIDIAはCapExを行うのに十分な現金を持っており、報道によると、CoreWeaveに最大63億ドルの信用保証をし、20億ドルを投資したとのことです。なぜNVIDIAは自らクラウドサービスを提供し、自らハイパースケーラーになり、これらの算力をレンタルしないのでしょうか?あなた方は十分な現金を持っています。
ジェンスン・ファン:
これは企業の哲学の問題であり、私はそれが賢明であると考えます。われわれは、必要不可欠なことを可能な限り多く行い、不必要なことは可能な限り少なく行うべきです。つまり、われわれがコンピューティングプラットフォーム構築において行っている作業は、もしわれわれが行わなければ、本当に誰も行わないだろうというレベルのものです。もしわれわれが、われわれのやり方でNVLinkを構築しなかったり、全体の技術スタックを構築しなかったり、われわれのやり方でエコシステムを育成しなかったり、20年間にわたりCUDAに焦点を当て続け、その大部分の期間で赤字を出していたりしなかったとしたら、誰も行わなかったでしょう。もしわれわれが、光線追跡、画像生成、初期のAI、データ処理、構造化データ処理、ベクトルデータ処理など、あらゆる分野のCUDA-X専用ライブラリをすべて作成しなかったとしても、誰も行わなかったでしょう。たとえば、計算リソグラフィーのためにcuLithoを作成しましたが、もしわれわれが行わなければ、誰も行わなかったでしょう。
したがって、もしわれわれがこれをやっていなければ、アクセラレーテッド・コンピューティングは今日のような形では発展しなかったでしょう。だからこそ、われわれはそれをやるべきなのです。全力を尽くし、すべての力をこのことに集中させるべきです。しかし、世界にはクラウドサービスが不足していません——もしわれわれがこれをやらないとしても、必ず他社がやります。『必要不可欠なことを可能な限り多く行い、不必要なことは可能な限り少なく行う』という哲学に従えば、もしCoreWeaveが存在しなければ、これらの新興AIクラウドは登場しなかったでしょう。もしCoreWeaveを支援しなければ、彼らは存在しなかったでしょう。もしNscaleを支援しなければ、彼らは今日の規模にはならなかったでしょう。もしNebiusを支援しなければ、彼らは今日の規模にはならなかったでしょう。今、彼らはすべて順調に発展しています。これはビジネスモデルでしょうか——われわれは、必要不可欠なことを可能な限り多く行い、不必要なことは可能な限り少なく行うべきです。だからこそ、われわれはエコシステムに投資するのです。なぜなら、われわれのエコシステムが繁栄することを望んでいるからです。私は、このアーキテクチャとAIが、可能な限り多くの業界、可能な限り多くの国とつながることを望んでおり、世界がAIの上に構築でき、米国のテクノロジースタックの上に構築できることを望んでいます。これがわれわれが追求しているビジョンです。
NVIDIAが設立された当初、3Dグラフィックス企業は60社あり、われわれは生き残る可能性が最も低い企業でした。当時のNVIDIAのグラフィックスアーキテクチャは、まさに間違っていました。ちょっと間違っていたのではなく、まったく逆の方向でした。開発者はまったくサポートできませんでした。優れた第一原理から出発しても、われわれは誤った答えを導き出しました。誰もがわれわれを除外したでしょう。しかし、今、われわれはここにいます。だからこそ、私は十分な謙虚さを持ってこのことを認識しています:勝者に賭けるべきではありません。勝負は彼ら自身に任せるか、あるいはすべてにチャンスを与えるべきです。
司会 ドワルケシュ:しかし、あなたはNVIDIAがいなければ存在しなかったであろう新興クラウドの数々を挙げましたが、それは『勝者に賭けない』という考え方とどう整合性を保つのでしょうか?
ジェンスン・ファン:
まず、彼らが存在するためには、自ら助けを求めに来る必要があります。彼らが存在したいと思い、ビジネスプランを持ち、専門的な能力と情熱を持っているとき——もちろん、彼ら自身も一定の実力を持っている必要があります。しかし、最後に、彼らが立ち上がりに必要な投資を必要とする場合、われわれはそこで彼らを支援します。一度彼らのフィードバックループが回り始めたら、われわれは彼らがすぐに独立することを望んでいます。あなたの質問は『われわれはファイナンス事業をしたいのか?』というものですが、答えは『いいえ』です。ファイナンス専門の企業が存在し、われわれはそれらのすべてのファイナンス企業と協力することを好み、自らファイナンス企業になることは好みません。われわれの目標は、われわれのやっていることに集中し、ビジネスモデルを可能な限りシンプルに保ち、エコシステムを支援することです。OpenAIのような企業がIPO前に300億ドル規模の投資を必要とし、われわれが彼らが素晴らしい企業になることを深く信じている場合——彼らはすでにそうであり、今後は信じられないほど素晴らしい企業になるでしょう。世界は彼らの存在を必要としており、世界は彼らの存在を望んでおり、私も彼らの存在を望んでいます。彼らの風は今吹いています——彼らを支援し、彼らが成長することを支援します。このような投資は、彼らがわれわれにそれを求めているからこそ行うのです。しかし、われわれはできるだけ多くのことをするのではなく、できるだけ少ないことをするのです。
司会 ドワルケシュ:GPUの配分というトピックについて——われわれは常にGPUの不足状態にあります。NVIDIAは、単なる入札ではなく、CoreWeave、Crusoe、Lambdaのような新興クラウドに一定の割合を確保するという方法で、希少な生産能力を配分していると報じられています。なぜこれがNVIDIAにとって良いことなのでしょうか?まず、あなたはこの『市場シェアの分割』という記述に同意しますか?
ジェンスン・ファン:
いいえ、あなたの前提は間違っています。われわれはこうしたことに非常に慎重に取り組んでいます。まず、購入注文(PO)を出さなければ、どんなに話しても無意味です。POが出る前に、われわれは何もできません。だから、第一に、われわれは、これらを構築するのに時間がかかり、データセンターの建設にも時間がかかるため、皆と協力して予測を立てることに非常に尽力しています。予測を通じて需給を調整することが、第一の優先事項です。第二に、われわれはできるだけ多くの人と予測を立てますが、最終的には注文を出す必要があります。
もしかすると、何らかの理由で、あなたがタイミングよく注文を出せなかったかもしれません。その場合、われわれは何ができるでしょうか?先着順です。もし準備ができていない——データセンターが準備できていない、あるいはある部品が揃わず、オンライン化できない——場合、われわれは別の顧客に優先的にサービスを提供することを決め、自社工場の生産効率を最大化することにします。このような調整は行います。それ以外の優先順位は、先着順であり、POを出すことが必須です。ラリー氏やイーロン氏がGPUを必死に求めて私と食事をしたという話は、まったく存在しません。私たちは食事をしましたが、それはとても素晴らしい夕食でした。しかし、彼らは一度もGPUを求めてはいません。彼らはただ注文を出す必要があったのです。一度注文が出れば、われわれは全力で生産能力を確保します。われわれは複雑ではありません。
司会 ドワルケシュ:つまり、データセンターの準備状況や、
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News













