
AIの次なる大地震:真の脅威はSaaSキラーではなく、計算能力革命である理由
TechFlow厳選深潮セレクト

AIの次なる大地震:真の脅威はSaaSキラーではなく、計算能力革命である理由
この革命により、AIの「ツルハシを売る人々」が丹精込めて開催した華やかなパーティーが、誰も予想しなかったほど早く終わってしまう可能性がある。
執筆:Bruce
最近、テクノロジー業界と投資界全体が注目しているのは、AIアプリケーションがいかに「従来型SaaSを駆逐しているか」という一点です。@AnthropicAI の Claude Cowork が、メール作成やプレゼン資料(PPT)作成、Excel表の分析などを驚くほど簡単にこなす様子を披露して以来、「ソフトウェアは死んだ」という懸念が急速に広がっています。確かにこれは衝撃的ですが、視線をそこにだけ向けていると、本当の「大地震」を見過ごしてしまうかもしれません。
これはまるで、誰もが空を飛ぶドローン同士の戦闘に目を奪われている一方で、足元の大陸プレート全体が静かに移動していることに誰も気づかない状況に似ています。真の嵐は水面下、大多数の人々が見落としている一角——AI世界全体を支える計算能力(算力)という基盤において、今まさに「静かな革命」が起きているのです。
そしてこの革命は、AI時代の「シャベルを売る者」であるNVIDIA @nvidia が丹精込めて開催してきたこの盛大なパーティーを、誰もが想像するよりもはるかに早く終焉へと導く可能性があります。
交差しつつある二つの革命の道
この革命は単一の出来事ではなく、一見無関係に見える二つの技術ルートが絡み合って進展しているものです。これらは、まるで包囲網を築く二つの軍勢のように、NVIDIAのGPUによる覇権に対し「挟撃作戦」を展開しています。
第一の道は、「アルゴリズムのスリム化革命」です。
あなたは、超高性能な脳が問題を考える際、本当にすべての神経細胞を動員する必要があると考えたことはありますか? 明らかにそんなことはありません。DeepSeekはこの点に気づき、MoE(Mixture of Experts:混合専門家モデル)というアーキテクチャを開発しました。
これを一社の企業に例えるなら、数百人の分野別エキスパートを抱えている会社です。しかし、毎回ミーティングを開いて課題解決を行う際には、最も関連性の高い数名のエキスパートだけを招けばよく、全員を一堂に会させることはありません。これがMoEの賢さです。巨大なモデルであっても、各推論処理の際にごく一部の「エキスパート」のみを活性化させるため、計算資源(算力)を大幅に節約できます。
その結果はいかなるものでしょうか? DeepSeek-V2モデルは名目上2360億の「エキスパート」(パラメーター)を持ちますが、実際の処理ではそのうちわずか210億しか活性化されず、全体の9%にも満たない規模です。にもかかわらず、その性能は、100%フル稼働が必要なGPT-4と同等です。これは何を意味するのでしょうか? AIの能力と、それが消費する算力との間に、もはや直接的な相関関係が存在しなくなったということです!
これまで私たちは、AIが強くなればなるほど、使用するGPUの枚数も増えるものだと暗黙の了解としてきました。しかしDeepSeekは、優れたアルゴリズムによって、コストを十分の一に抑えつつ同等の成果を得られることを示したのです。これはつまり、NVIDIA GPUの「必須性」という属性に、大きな疑問符を突きつけたに等しい行為です。
第二の道は、ハードウェアにおける「レーンチェンジ革命」です。
AIの処理は「学習(トレーニング)」と「推論(インファレンス)」の二段階に分けられます。学習は学校に通うようなもので、膨大な量のデータ(「万巻の書」)を読み込む必要があります。この段階では、並列計算性能が極めて高く「力任せにでも結果が出る」GPUが確かに有効です。しかし推論は、私たちが日常的にAIを利用する場面であり、むしろレスポンスの速さが重視されます。
ところがGPUには、推論時に固有の欠点があります。そのメモリ(HBM:High Bandwidth Memory)はチップ外部に搭載されており、データのやりとりに往復の遅延が生じます。これは、シェフが調理中に使う食材を隣の部屋の冷蔵庫に保管していて、毎回炒め物をするたびにそこまで走って取りに行かなければならないような状況に似ています。どんなに速くても、限界があります。これに対し、Cerebras や Groq といった企業は、全く異なるアプローチを取り、推論専用チップを独自設計しました。これらのチップでは、SRAM(Static RAM)をチップ上に直接実装することで、食材を手元に置いておく「ゼロ・レイテンシー」アクセスを実現しています。
市場はすでに、現金という形でその価値を認め始めています。OpenAIはNVIDIAのGPUが推論に不向きであると公言しながら、同時にCerebrasと100億ドル規模の大口契約を結び、専用の推論サービスを賃借しています。NVIDIA自身も危機感を覚え、新規参入企業Groqを200億ドルで買収し、この新たな競争領域から脱落しないよう必死の態勢を取っています。
二つの道が交差するとき:コストの雪崩
さて、ここで二つの要素を組み合わせてみましょう。「アルゴリズムでスリム化された」DeepSeekモデルを、「ハードウェアでゼロ・レイテンシーを実現した」Cerebrasチップ上で動作させるのです。
一体何が起こるでしょうか?
「コストの雪崩」です。
まず、スリム化されたモデルはサイズが小さく、チップ内蔵メモリに一度にすべて収容可能です。次に、外部メモリによるボトルネックが解消されるため、AIの応答速度は驚異的に向上します。その結果として、MoEアーキテクチャにより学習コストは90%削減され、さらに専用ハードウェアとスパース計算(疎な計算)により推論コストも1桁以上削減されます。総合的に見ると、世界トップクラスのAIを構築・運用するための総コストは、従来のGPUベースソリューションのわずか10〜15%にまで圧縮される可能性があります。
これは単なる改良ではありません。まさに「パラダイムシフト」です。
NVIDIAの王座の下敷きにあるカーペットが、静かに引き抜かれている
こうしてみると、なぜこれが「Coworkパニック」よりもはるかに深刻なのかが理解できるでしょう。
NVIDIAが現在有する数兆ドル規模の時価総額は、非常にシンプルなストーリーの上に成り立っています。「AIこそが未来であり、その未来を実現するには必ず私のGPUが必要だ」という物語です。しかし今、この物語の土台そのものが揺らいでいるのです。
学習市場においては、NVIDIAが依然として独占的地位を維持できたとしても、顧客が従来の1/10のGPU枚数で同じ作業をこなせるようになったならば、この市場の全体規模自体が大きく縮小する可能性があります。
一方、学習市場より10倍も大きな市場である推論市場では、NVIDIAには絶対的な優位性がなく、GoogleやCerebrasなど、多様な有力プレイヤーによる包囲網が既に形成されています。最大の顧客であるOpenAIでさえ、すでに「離反」を始めています。
ウォールストリートが、NVIDIAの「シャベル」がもはや唯一の選択肢ではなく、さらには最善の選択肢でさえないと認識した瞬間、その「永続的独占」を前提とした高騰した評価額は、いったいどうなるでしょうか? 皆さんのご想像にお任せします。
したがって、今後半年間で最も大きな「ブラック・スワン(予期せぬ重大イベント)」となる可能性があるのは、あるAIアプリケーションがまた誰かを倒したというニュースではなく、一見地味な技術ニュース——例えばMoEアルゴリズムの効率性に関する新しい論文、あるいは専用推論チップの市場シェアが急拡大したことを示すレポート——かもしれません。このようなニュースが、静かに、しかし確実に、計算能力(算力)を巡る戦いが新たな段階に入ったことを宣告するのです。
「シャベルを売る者」のシャベルがもはや唯一の選択肢でなくなったとき、その者が享受してきた黄金時代は、おそらく終わりを迎えることになるでしょう。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News













