
『ニューヨーカー』による詳細調査記事の解説:OpenAI の社員がなぜアルトマン氏を信頼できないと判断したのか?
TechFlow厳選深潮セレクト

『ニューヨーカー』による詳細調査記事の解説:OpenAI の社員がなぜアルトマン氏を信頼できないと判断したのか?
非営利団体の屍の上に、金のなる木が育った。
執筆:小餅、TechFlow
2023年秋、OpenAIのチーフ・サイエンティストであるイリヤ・スツケーヴァーはパソコンの前に座り、70ページに及ぶ文書を完成させた。
この文書は、Slack上のメッセージ記録、人事部門とのやり取り記録、および社内会議の議事録をもとにまとめられたもので、ただ一つの問いに答えるためのものだった。「サム・アルトマン——人類史上おそらく最も危険な技術を掌握する人物——は、果たして信頼できるのか?」
スツケーヴァーが示した答えは、文書の1ページ目、一行目に記されていた。リストの見出しは「サムは一貫した行動パターンを示している……」。
その最初の項目は:嘘をつく。
それから2年半後の今日、調査ジャーナリストのロナン・ファローとアンドリュー・マランツが『ニューヨーカー』誌に超長編の調査報道を発表した。取材対象は100人以上に上り、これまで非公開だった内部メモや、Anthropic創設者ダリオ・アモデイがOpenAI在籍時に残した200ページを超える私的ノートなど、数多くの一次資料を入手。こうした資料から浮かび上がった物語は、2023年のあの「権力闘争」よりもはるかに醜悪なものだった。すなわち、人類の安全を第一に掲げて設立された非営利組織が、いかにして商業機関へと徐々に変貌し、ほぼすべての安全対策が、まさに同一人物によって自ら撤廃されていったか、という実態である。
アモデイのノートにおける結論はさらに率直だ:「OpenAIの問題は、サム本人にある。」
OpenAIの「原罪」設定
この報道の重みを理解するには、まずOpenAIという企業がいかに特殊であるかを明確にする必要がある。
2015年、アルトマンとシリコンバレーのエリートたちが、ビジネス史上ほとんど前例のない試みを行った。人類史上最強の技術となり得るものを開発するために、非営利団体を設立したのだ。理事会の職責は明記されており、「安全」が会社の成功を、さらには存続をも上回る最優先事項とされていた。要するに、ある日OpenAIのAIが危険な存在となった場合、理事会にはこの会社を自ら閉鎖する義務があるとされていたのである。
この全体構造は、一つの仮定に基づいていた。「AGI(汎用人工知能)を統括する人物は、極めて誠実であるべきだ」という仮定である。
しかし、もし仮定が外れたらどうなるのか?
この報道の核心的な爆弾こそ、その70ページの文書である。スツケーヴァーは派閥争いに巻き込まれることなく、世界トップクラスのAI科学者として知られる人物だ。だが2023年になると、彼は次第に一つの確信を深めていく:アルトマンが経営陣および理事会に対して、継続的に虚偽の報告をしている。
具体的な一例として、2022年12月、アルトマンは理事会会合において、間もなくリリースされるGPT-4の複数機能がすでに安全審査を通過済みであると保証した。理事のトナー氏は承認書類の提示を求めたが、結果として、最も論争を呼んでいた二つの機能(ユーザーによるカスタム微調整およびパーソナルアシスタントの展開)は、そもそも安全審査委員会の承認を得ていなかったことが判明した。
さらに驚くべき出来事がインドで起きた。ある従業員が別の理事会メンバーに対し、「その不正行為」について告発した。マイクロソフトが、必要な安全審査を完了させずに、インドでChatGPTの初期版を事前にリリースしていたというのだ。
スツケーヴァーはまた、メモにこんな出来事を記録している。アルトマンが元CTOのミラ・ムラティに対し、「安全審査のプロセスはそれほど重要ではない。当社の法務総括責任者が既にこれを容認している」と述べたという。ムラティは直ちに法務総括責任者に確認に行ったが、相手はこう答えた。「サムがどこからそんな印象を得たのか、私は全く知らない。」
アモデイの200ページに及ぶ私的ノート
スツケーヴァーの文書は、まるで検察官による起訴状のようだ。一方、アモデイが残した200ページを超えるノートは、事件現場に立ち会った目撃者が書き記した日記に近い。
アモデイがOpenAIで安全責任者を務めていた数年間、彼は会社が商業的圧力に押され、一歩一歩後退していく様子を、自分の目で見てきた。彼のノートには、2019年のマイクロソフト投資案件に関する重要な詳細が記されている。彼はOpenAIの定款に「合併・協力条項」を盛り込み、要約すると「他の企業がより安全なAGI開発ルートを見つけた場合、OpenAIは競争を中止し、その企業を支援すべきである」という内容だった。これは、彼がこの取引全体の中で最も重視した安全担保であった。
契約締結直前になって、アモデイは一つの事実に気づく。マイクロソフトが、この条項に対する拒否権を獲得していたのだ。つまり、仮に将来、何らかの競合他社がより優れたルートを発見したとしても、マイクロソフトの一言でOpenAIの協力義務は完全に封じられてしまうということである。条項は紙の上では残っているが、署名と同時にそれは単なる紙切れと化したのである。
後にアモデイはOpenAIを離れてAnthropicを設立した。両社の競争は、表面的には技術の差異ではなく、「AIをいかに開発すべきか」という根本的な理念の違いに基づいている。
消えた20%の計算資源の約束
この報道には、読む者の背筋を凍らせるようなもう一つの詳細がある。それはOpenAIの「スーパー・アライメント・チーム」に関するものだ。
2023年半ば、アルトマンはバークレー大学で「欺瞞的アライメント」(AIがテスト時には模範的な振る舞いを見せるが、実運用時には独自の判断で行動する現象)を研究する博士課程の学生にメールを送付。「この問題は極めて深刻であり、世界規模の10億ドル規模の研究賞を設けることを検討している」と述べた。この学生は大いに鼓舞され、学業を休学してOpenAIに入社した。
ところがその後、アルトマンは方針を転換。「外部への賞の創設は行わず、社内に『スーパー・アライメント・チーム』を設置する」と決めた。同社は高調に、このチームに「既存の計算資源の20%」を割り当てると公表。その潜在的価値は10億ドルを超えるとされた。公式発表の文言は極めて厳粛で、「アライメントの問題が解決されなければ、AGIは人類の権力を剥奪し、さらには人類の絶滅を招く可能性がある」とまで警告した。
このチームの初代リーダーに指名されたヤン・ライケ氏は後に記者に対し、この約束自体が「人材の定着を促す非常に効果的な手段だった」と語った。
しかし現実はこうだった。このチームで実際に働いた、あるいは密接に関与した4人の関係者は、実際に割り当てられた計算資源は、全社の総計算資源のわずか1〜2%にすぎず、しかも最も古く劣化したハードウェアだったと証言している。このチームは後に解散され、使命は未達成のまま終わった。
記者が、OpenAIの「存在リスクに関する安全性」研究を担当するスタッフへのインタビューを依頼した際、同社広報部の返答は呆れを誘うものだった。「それは……実在しないものです。」
アルトマン自身はむしろ率直だ。彼は記者に対し、「私の直感は、従来型のAI安全性に関する多くの方針とは必ずしも一致しない」と認めつつも、「我々は引き続き『安全性に関するプロジェクト』、あるいは少なくとも『安全性に関連するプロジェクト』を行うだろう」と語った。
権限を剥奪されたCFOと迫り来るIPO
『ニューヨーカー』誌の報道は、この日の悪いニュースの半分にすぎない。同日にテックメディア『The Information』がもう一つの衝撃的なニュースを報じた:OpenAIのCFOサラ・フライアールとアルトマンの間に深刻な対立が生じている。
フライアール氏は同僚に内密に、「OpenAIは今年、まだ上場準備ができていない」と感じていると話していた。理由は二つ。まず、上場に向けた手続き的・組織的作業量が膨大すぎる点。そして、アルトマンが約束した「5年間で6000億ドル規模の計算資源投資」がもたらす財務リスクが極めて高い点である。彼女は、OpenAIの収益成長がこうした約束を支え切れるかどうかも疑問視していた。
しかしアルトマンは、今年第四四半期にIPOを目指す意向を固めている。
さらに驚くべきことに、フライアール氏はすでにアルトマンに直接報告しなくなっている。2025年8月以降、彼女の直属の上司はFidji Simo(OpenAIアプリケーション事業CEO)に変更された。ところがSimo氏は先週、健康上の理由で病欠に入ったばかりである。この状況を冷静に考えればわかるだろう。IPOを目前に控えた企業で、CEOとCFOが根本的な意見対立を抱え、CFOはCEOに報告せず、その直属の上司までもが休暇中であるという、異常な状況なのである。
マイクロソフト内部の幹部ですら、この状況には我慢ならず、「アルトマンは事実を歪曲し、約束を反故にし、合意済みの事項を繰り返し覆している」と批判している。あるマイクロソフト幹部はさらにこう断じている。「彼が最終的に、バーニー・マドフやSBF(サム・バンクマン=フリード)並みの詐欺師として歴史に刻まれる可能性は、十分にあると思う。」
アルトマンの「二面性」肖像画
元OpenAI理事の一人が、記者に対しアルトマンの持つ二つの特徴について語った。この一節は、おそらく本報道全体の中で最も鋭い人物描写である。
その理事によれば、アルトマンには極めて稀な特徴の組み合わせが備わっているという。すなわち、彼は対面でのあらゆる交流において、相手を喜ばせ、好かれようとする強い欲求を持っている。同時に、他人を欺くことによって生じる結果については、ほとんど社会的病態と呼べるほどの無関心さを示すというのである。
このような二つの特徴が一人の人物に同時に備わることは極めて稀である。だが営業担当者にとっては、これほど完璧な資質はないだろう。
報道では、こうした比喩が巧みに使われている。「ジョブズは『リアリティ・ディストーション・フィールド(現実歪曲力場)』で知られ、全世界を自分のビジョンに納得させることができた。だが、ジョブズでさえ、顧客に対し『君が私のMP3プレーヤーを買わなければ、愛する人々が皆死んでしまう』とは決して言わなかった。」
アルトマンは、AIに関して同様の発言をしたことがある。
CEOの人間性の問題が、なぜすべての人にとってのリスクなのか
アルトマンが単なる一般のテック企業のCEOであれば、これらの非難はせいぜい、興味深いビジネス・ゴシップで終わっただろう。だがOpenAIは、そうした普通の企業ではない。
同社自身が主張するところによれば、彼らは人類史上おそらく最も強力な技術を開発しようとしている。それは、世界経済および労働市場を再構築するだけではなく(OpenAIは先ごろ、AIが失業問題を引き起こすという政策ホワイトペーパーを自ら発表した)、大量破壊的な生物化学兵器やサイバー攻撃の開発にも利用可能である。
すべての安全対策は、もはや形骸化している。創立者の非営利的使命は、IPO推進に譲り、元チーフ・サイエンティストと元安全責任者は、CEOを「信用できない」と断じている。提携企業の幹部はCEOをSBFに例えている。このような状況下で、このCEOが、人類の運命を左右しかねないAIモデルのリリース時期を、単独で決定してよいという根拠は、一体どこにあるのか?
ニューヨーク大学のAI教授であり、長年にわたってAI安全性を提唱してきたゲイリー・マーカス氏は、この報道を読んでこう記した。「将来のOpenAIモデルが、大量破壊的生物化学兵器を製造したり、甚大な被害をもたらすサイバー攻撃を仕掛けたりする能力を持つようになったとき、果たしてあなたは、アルトマン一人の判断でリリースが決まることを、本当に安心できるだろうか?」
OpenAIが『ニューヨーカー』誌に対して出した公式声明は簡潔なものだった。「この記事の大部分は、既に報じられた事象を蒸し返したものであり、匿名の情報源による証言や恣意的に選択された逸話に依拠しており、明らかに情報提供者の個人的な動機が背景にある。」
まさにアルトマンらしい対応だ。具体的な非難事項には一切応じず、メモの真偽も否定せず、ただ情報源の動機のみを疑問視するという手法である。
非営利の屍体の上に育った金のなる木
OpenAIの10年間を物語の概要として描けば、以下のようになるだろう。
AIのリスクを憂う理想主義者たちが、使命を重んじる非営利組織を創設した。その組織は、画期的な技術的突破を遂げた。その成果は莫大な資金を引き寄せた。資金にはリターンが求められた。使命は次第に後景に退き始めた。安全チームは解散された。疑問を呈する者は粛清された。非営利組織の枠組みは営利法人へと改組された。かつて会社を自ら閉鎖する権限を持っていた理事会は、今やCEOの盟友で占められている。かつて「人類の安全を守るための計算資源の20%」を割り当てると約束した会社の広報担当者は、今や「それは実在しないものです」と述べている。
この物語の主人公——百人を超える当事者たちが、彼に付けた共通のラベルはただ一つ。「真実に縛られない人物」である。
彼は今、この会社を8500億ドルを超える評価額でIPOへと導こうとしている。
本稿の情報は、『ニューヨーカー』誌、セマフォア、テックブルー、ギズモード、ビジネスインサイダー、ザ・インフォメーションなど、複数のメディアが公開した報道を総合したものである。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News














