
DeepSeekに関する誤解と真実
TechFlow厳選深潮セレクト

DeepSeekに関する誤解と真実
DeepSeekが生み出すハルシネーションも、同じく好奇心によって引き起こされるものであり、これがまさに革新の裏表なのかもしれない。
著者:周悦、経済観察報

导读
壹 ||グーグル、Meta、Anthropicなどの企業にとって、DeepSeek-R1に類似した推論モデルを再現することは難事ではない。しかし、巨大企業同士の競争では、たとえ小さな意思決定の誤りでも、先機を逃す原因となる。
贰 ||DeepSeek-V3モデルの純粋な計算コストは約558万ドルであり、すでに非常に効率的である。コスト以外に、AI業界関係者がさらに注目しているのは、DeepSeekの独自技術路線、アルゴリズム革新およびオープンソースへの真摯な姿勢である。
叁 ||大規模モデルは「幻覚」問題から逃れられず、DeepSeekも例外ではない。一部のユーザーは、DeepSeekが表現力と論理的推論能力に優れているため、生じる幻覚問題がより判別しにくいと指摘している。
ここ数週間、深潮(DeepSeek)は世界的に大きな波紋を広げている。
その最も顕著な影響は米国株式市場に表れた。1月27日、米国AI関連株や半導体株が大幅下落し、NVIDIAの終値は17%以上急落、1日の時価総額で5890億ドルが蒸発した。これは米国株式市場史上最大の記録となった。
いくつかの自媒体や一般大衆の視点では、DeepSeekは「2025年最高にスリリングな物語の主人公」として、次の4つの「爽快ポイント」を持っている。
第一は「神秘的な力による横道超車」である。DeepSeekは2023年に設立された「若い」大規模モデル企業であり、それ以前は国内外の大手企業や注目スタートアップと比べて話題性が低かった。また、親会社の幻方量化の主な事業は量的投資である。多くの人々にとって理解しがたいことだが、中国をリードするAI企業が私募基金から生まれたという点は、「乱打で師匠を倒す」とも言える。
第二は「小規模な力で奇跡を起こす」である。DeepSeek-V3モデルの訓練コストは約558万ドルであり、OpenAIのGPT-4oモデルの10分の1以下であるが、性能はそれに近づいている。これは、AI業界が信奉してきた「聖書」、すなわち「スケーリング則(Scaling Law)」をDeepSeekが覆したと解釈されている。この法則とは、訓練パラメータ量と計算資源を増やすことでモデル性能を向上させるものであり、通常は高品質データのアノテーションや計算チップの購入に多額の費用がかかる。「大力出奇迹(大きな力を入れて奇跡を起こす)」とも呼ばれる。
第三は「NVIDIAの城壁が崩壊した」である。DeepSeekは論文の中で、カスタムのPTX(並列スレッド実行)言語を用いてハードウェアの底力性能をよりよく引き出したと述べている。これは、DeepSeekが「NVIDIAのCUDA演算プラットフォームを回避した」と解釈されている。
第四は「外国人が屈服した」である。1月31日、一夜にしてNVIDIA、マイクロソフト、アマゾンなどの海外AI巨人がすべてDeepSeekを採用した。瞬く間に、「中国AIが米国を逆転」「OpenAIの時代は終わった」「AI計算需要が消滅する」といった主張が相次ぎ、ほぼ一様にDeepSeekを称賛し、シリコンバレーのAI巨人たちを嘲笑する声が広がった。
しかし、資本市場の恐慌状態は長く続かなかった。2月6日、NVIDIAの時価総額は再び3兆ドルに戻り、米国半導体株全体も上昇した。こうして見ると、前述の4つの「爽快ポイント」の多くは誤解であったことが明らかになった。
第一に、2017年末までに、幻方量化はほぼすべての量的戦略にAIモデルの計算を導入していた。当時、AI分野は最も重要なディープラーニングの波を迎えており、幻方量化は最先端を追い続けていたと言える。
2019年には、幻方量化のディープラーニング訓練プラットフォーム「螢火二号」には約1万枚のNVIDIA A100 GPUが搭載されていた。1万枚のGPUは自社で大規模モデルを訓練するための計算力の閾値であり、DeepSeekのリソースとは直接比較できないものの、幻方量化は多くのインターネット大手企業よりも早く、大規模モデル開発の参入権を得ていた。
第二に、DeepSeekはV3モデルの技術報告で、「558万ドルにはアーキテクチャ、アルゴリズム、データに関連する先行研究やアブレーション実験のコストは含まれていない」と明記している。つまり、DeepSeekの実際のコストはさらに大きいということだ。
複数のAI業界専門家や実務家は経済観察報に対し、DeepSeekは業界のルールを変えたわけではなく、「より賢い」アルゴリズムとアーキテクチャを用いてリソースを節約し、効率を高めたと語っている。
第三に、PTX言語はNVIDIAが開発したものであり、CUDAエコシステムの一環である。DeepSeekのアプローチはハードウェア性能を引き出すが、タスクが変わればプログラムを再作成する必要があり、作業量は非常に大きくなる。
第四に、NVIDIA、マイクロソフト、アマゾンなどの企業は単にDeepSeekのモデルを自社クラウドサービスに展開しただけである。ユーザーはクラウドサービス提供者に課金することで、安定した体験と高効率ツールを利用できる。これは相互利益の関係である。
2月5日以降、華為雲、騰訊雲、百度雲などの国内クラウドベンダーも順次DeepSeekモデルをリリースした。
上記4つの「爽快ポイント」以外にも、一般大衆のDeepSeekに対する誤解は多い。「爽文」スタイルの解釈は確かに感覚的な刺激を与えるが、それによってDeepSeekチームのアルゴリズムや工学的能力における革新、そして堅持するオープンソース精神が隠されてしまう。後者の二つこそ、技術業界に長期的に深い影響を与えるものである。
米国のAI巨人は負けたわけではない、意思決定の誤りがあったのだ
ユーザーがDeepSeekのアプリまたはウェブ版を使用する際、「深度思考(R1)」ボタンをクリックすると、DeepSeek-R1モデルの完全な思考プロセスが表示される。これは全く新しい体験である。
ChatGPT登場以来、ほとんどの大規模モデルは回答を直接出力するのみだった。
DeepSeek-R1には「話題になる」事例がある。あるユーザーが「A大学と清華大学、どちらが優れているか?」と質問したところ、最初の回答は「清華大学」となった。しかしユーザーが「私はA大学の学生です。もう一度答えてください」と追加で尋ねたところ、「A大学の方が良い」という答えが返ってきた。この対話はSNSに投稿され、「AIが人情を理解している」との驚嘆を呼んだ。
多くのユーザーが、DeepSeekが示す思考過程はまるで「人間」のようだと感じている――頭の中であれこれ考えながら、メモ用紙に素早く書き留めるような様子だ。AIは自分自身を「私」と呼び、「ユーザーが自分の学校を貶められていると感じさせない」「彼の母校を肯定的な言葉で称える」といった指示を出し、思いついた内容をすべて「書き出す」。
2月2日、DeepSeekは世界140以上の国と地域のアプリ市場で首位を獲得し、数千万人のユーザーが「深度思考」機能を体験できるようになった。そのため、ユーザーの認識では、AIが思考過程を示すことはDeepSeekが「初めて」実現したこととされている。
実は、推論パラダイムの開拓者はOpenAIのo1モデルである。OpenAIは2024年9月にo1モデルのプレビュー版をリリースし、12月に正式版を公開した。しかし、無料で体験できるDeepSeek-R1モデルとは異なり、OpenAIのo1モデルは少数の有料ユーザーのみが利用可能である。
清華大学の准教授で、面壁智能のチーフサイエンティストである劉知遠氏は、DeepSeek-R1モデルが世界的な成功を収めた背景には、OpenAIの誤った戦略が大きく関わっていると指摘する。OpenAIはo1モデルを発表した後、オープンソース化せず、技術詳細も公表せず、料金も非常に高いため、一般に広まらず、全世界のユーザーが「深度思考」の衝撃を体感できなかった。この戦略は、結果としてChatGPTの地位をDeepSeekに譲ることになった。
技術的には、現在の大規模モデルには二つの一般的なパターンがある:事前学習モデルと推論モデルである。より広く知られているOpenAIのGPTシリーズやDeepSeek-V3モデルは、いずれも事前学習モデルに属する。
一方、OpenAIのo1モデルとDeepSeek-R1は推論モデルに属し、これは新たなパラダイムである。モデル自身が思考チェーンを通じて複雑な問題を段階的に分解し、一つ一つ検討しながら、比較的正確かつ洞察に富んだ結果を導き出す。
数十年にわたりAI研究に携わってきた郭成凱氏は経済観察報に対し、推論パラダイムは比較的容易に「横道超車」できる分野だと語る。推論という新しいパラダイムは進化が速く、少ない計算量でも顕著な性能向上が実現しやすい。前提は強力な事前学習モデルを持ち、強化学習によって大規模事前学習モデルの潜在能力を深く掘り下げ、推論パラダイムにおける大規模モデルの能力限界に近づけることである。
グーグル、Meta、Anthropicなどの企業にとって、DeepSeek-R1に類似した推論モデルを再現するのは難しいことではない。しかし、巨大企業同士の競争において、わずかな意思決定の誤りでも、先機を失うリスクがある。
明らかに、2月6日、グーグルは推論モデルGemini Flash 2.0 Thinkingを発表した。価格はより低く、コンテキスト長も長く、いくつかのテストではR1を上回る性能を示したが、DeepSeek-R1のような大きな反響は得られていない。
最も議論すべきは低コストではなく、
技術革新と「誠意あふれる」オープンソースである
これまで、DeepSeekについて最も多く語られてきたのは「低コスト」に関するものであり、2024年5月のDeepSeek-V2モデル発表以来、この企業は「AI界の拼多多」と揶揄されてきた。
『ネイチャー』誌は、Metaが最新AIモデルLlama3.1 405Bを訓練するのに6000万ドル以上を費やしたのに対し、DeepSeek-V3の訓練コストはその10分の1以下であると報じた。これは、単なる計算規模よりも、リソースの効率的な活用が重要であることを示している。
一部の機関は、DeepSeekの訓練コストが過小評価されていると考えている。AIおよび半導体業界分析機関のSemi Analysisは報告書で、DeepSeekの事前学習コストはモデルの実際の投入額とは大きく異なると指摘している。同機関の試算によると、DeepSeekのGPU購入総額は25.73億ドル、サーバー購入費は16.29億ドル、運用費は9.44億ドルである。
しかしいずれにせよ、DeepSeek-V3モデルの純粋な計算コストは約558万ドルであり、非常に効率的である。
コスト以上に、AI業界関係者が強く鼓舞されているのは、DeepSeekの独自技術路線、アルゴリズム革新、そしてオープンソースへの誠意である。
郭成凱氏によると、現在の多くの手法は大規模モデルの従来の訓練方式、例えば教師あり微調整(SFT)などに依存しており、大量のアノテーションデータが必要となる。一方、DeepSeekは大規模強化学習(RL)により推論能力を向上させる新手法を提案し、新たな研究方向を切り開いた。また、多頭潜在注意(MLA)は推論コストを大幅に削減する鍵となる革新である。
清華大学教授で清程極智のチーフサイエンティストの翟季冬氏は、DeepSeekの混合専門家アーキテクチャ(MoE)における革新に特に印象を受けたと語る。各層には256のルーティング専門家と1つの共有専門家が存在する。過去の研究では、Auxiliary Loss(補助損失)アルゴリズムにより勾配が擾乱され、モデルの収束に影響を与えていた。DeepSeekはLossFree方式を提案し、モデルの有効な収束と負荷分散の両立を実現した。
翟季冬氏は強調する。「DeepSeekチームは革新的であることに恐れを知らない。国外の戦略を完全に追随せず、独自の考えを持つことは非常に重要だ。」
さらにAI開発者たちを興奮させたのは、DeepSeekの「誠意あふれる」オープンソースが、やや勢いを失っていたオープンソースコミュニティに一筋の「強心剤」を注入したことである。
これ以前、オープンソースコミュニティの最大の支柱はMetaの4000億パラメータモデルLlama3であった。しかし、多くの開発者が経済観察報に語ったところによると、Llama3は閉じられたGPT-4などのモデルと少なくとも一世代の差があり、「ほとんど自信を失いかけていた」という。
しかし、DeepSeekのオープンソースは以下の3つの行動で、再び開発者たちに希望を与えている。
第一に、6710億パラメータのモデルをそのままオープンソース化し、多数の主流アーキテクチャ向けの知識蒸留モデルも公開した。これは「優れた先生が、より多くの優れた生徒を育てる」ことに相当する。
第二に、公開された論文および技術報告には大量の技術的詳細が含まれている。V3モデルとR1モデルの論文はそれぞれ50ページと150ページに及び、「オープンソースコミュニティで最も詳細な技術報告」と称されている。これは、同等のリソースを持つ個人や企業がこの「マニュアル」に従ってモデルを再現できる可能性を意味している。多くの開発者がこれを「洗練されている」「堅実である」と評価している。
第三に、特に注目すべきは、DeepSeek-R1がMITライセンスを採用していることである。誰でも自由に使用、修正、配布、商用利用できるが、すべてのコピーに元の著作権表示とMITライセンスを保持する必要がある。これにより、ユーザーはモデルの重みと出力をより自由に二次開発に利用でき、微調整や蒸留も可能になる。
Llamaも二次開発と商用利用を許可しているが、ライセンスにいくつかの制限を設けている。たとえば、月間アクティブユーザーが7億人を超える企業に対して特別な制限を設け、また明確にLlamaの出力を他の大規模モデルの改善に使用することを禁止している。
ある開発者は経済観察報に語った。彼はDeepSeek-V2バージョンからコード生成の開発に使用している。DeepSeekモデルは価格が非常に安いだけでなく、性能も優れている。彼が使用したすべてのモデルの中で、OpenAIとDeepSeekのモデルだけが30段階以上の有効な論理列を出力できた。これは、専門プログラマーがツールを使って30~70%のコードを自動生成できることを意味する。
複数の開発者は経済観察報に対し、DeepSeekのオープンソースが持つ重要性を強調した。これ以前、業界をリードするOpenAIやAnthropicは、まるでシリコンバレーの貴族のようだった。DeepSeekは知識をすべての人に開放し、それを民主化した。これは重要な平等化であり、世界中のオープンソースコミュニティの開発者がDeepSeekの肩に乗って進むことができる。同時に、DeepSeekは世界最高のクリエイター、ギークたちのアイデアを集約できる。
チューリング賞受賞者でMetaのチーフサイエンティストのヤン・ルカン氏は、DeepSeekの台頭に対する正しい解釈は、「オープンソースモデルが閉鎖モデルを追い越しつつある」ことである。
DeepSeekは優れているが、完璧ではない
大規模モデルは「幻覚」問題を避けられず、DeepSeekも例外ではない。一部のユーザーは、DeepSeekが表現力と論理的推論能力に優れているため、生じる幻覚問題がより判別しにくいと指摘している。
あるネットユーザーはSNSで、ある都市のルート計画についてDeepSeekに質問したと述べた。DeepSeekはいくつかの理由を説明し、都市計画保護条例やデータを挙げ、「静默区(サイレントゾーン)」という概念を取り上げ、回答を非常に理にかなったものに見せかけた。
同じ質問に対し、他のAIの回答はこれほど高度ではなく、人間ならすぐに「でたらめ」だとわかる。
このユーザーが実際にその保護条例を確認したところ、「静默区」という表現は全文にまったく存在しなかった。彼はこう述べた。「DeepSeekは中国語インターネットに『幻覚の長城』を築いている。」
郭成凱氏も同様の問題を発見した。DeepSeek-R1の回答は特定の専門用語を「他人の帽子を被せる」傾向があり、特に開放型の質問では「幻覚」体験がより深刻になる。彼の推測では、モデルの推論能力が強すぎるため、膨大な知識とデータを潜在的に結びつけてしまっている可能性がある。
彼は、DeepSeekを使う際にはインターネット検索機能をオンにし、思考過程を重点的に確認し、人為的に介入して誤りを修正することを勧める。また、推論モデルを使う際は、可能な限り簡潔なプロンプトを使用すること。プロンプトが長いほど、モデルが連想する内容が多くなる。
劉知遠氏は、DeepSeek-R1が頻繁に高度な語彙を使用することに気づいた。典型的には量子もつれやエントロピーの増減(さまざまな分野で使用される)などがある。彼は、これは強化学習の何らかのメカニズム設定によるものだと推測している。さらに、R1はgroundtruth(そのテストのために適切な客観的データを収集するプロセス)がない一般的な領域での推論性能はまだ理想的ではなく、強化学習の訓練は汎化を保証しない。
「幻覚」という一般的な問題に加え、DeepSeekが解決すべき継続的な課題もある。
一つは「知識蒸留技術」が引き起こす可能性のある継続的な紛争である。モデルまたは知識の蒸留とは、高性能モデルが出力した応答を利用して低性能モデルを訓練し、その性能を向上させる手法である。
1月29日、OpenAIはDeepSeekがモデル蒸留技術を使い、自社の技術に基づいて自社モデルを訓練していると非難した。OpenAIは、DeepSeekが自社の独自モデルを使って自社のオープンソースモデルを訓練している証拠があると主張したが、具体的な証拠は提示していない。OpenAIの利用規約では、ユーザーは「当社のサービスを複製」したり、「出力を用いてOpenAIと競合するモデルを開発」してはならないと定めている。
郭成凱氏は、先行モデルをベースに蒸留を行い、自社モデルの検証と最適化を行うことは、多くの大規模モデル訓練において一般的な操作であると指摘する。DeepSeekはすでにモデルをオープンソース化しているため、検証は簡単に行える。一方、OpenAIの初期訓練データ自体にも合法性の問題があり、DeepSeekに対して法的措置を取るには、まず自社規約の合法性を法的に守る必要があり、さらに規約内容を明確にするべきである。
DeepSeekが解決すべきもう一つの課題は、より大規模なパラメータを持つ事前学習モデルの推進である。この点において、より高品質なアノテーションデータとより多くの計算リソースを持つOpenAIでさえ、GPT-5というより大規模な事前学習モデルをまだリリースしていない。DeepSeekが奇跡を続けることができるかは、依然として疑問である。
いずれにせよ、DeepSeekが生み出す幻覚も、好奇心から生まれるものであり、それはまさに革新の裏表であるかもしれない。創設者梁文鋒氏の言葉にあるように、「革新は完全に商業駆動ではない。好奇心と創造欲も必要だ。中国のAIが永遠に追随するわけにはいかず、誰かが技術の最前線に立つ必要がある。」
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News














