
7人の共同創設者による座談会:Anthropicはいかにして誕生したのか?
TechFlow厳選深潮セレクト

7人の共同創設者による座談会:Anthropicはいかにして誕生したのか?
「誰も起業したいとは思っていないが、そうするしかないと思っている。」
編集・翻訳:TechFlow

ゲスト:Anthropic共同創立者 クリス・オーラ(Chris Olah)、ジャック・クラーク(Jack Clark)、ダニエラ・アモデイ(Daniela Amodei)、サム・マキャンディッシュ(Sam McCandlish)、トム・ブラウン(Tom Brown)、ダリオ・アモデイ(Dario Amodei)、ジェレッド・カプラン(Jared Kaplan)
ポッドキャスト元:Anthropic
オリジナルタイトル:「Building Anthropic | A conversation with our co-founders」(Anthropicの構築 — 共同創立者との対談)
放送日:2024年12月20日
要点まとめ
先週、Anthropicは相次いで2件の事故を起こしました。
まず、CMS設定ミスにより社内文書約3,000件が公開アクセス可能状態となり、続いてClaude Code v2.1.88がnpmにリリースされた際、59.8MBものソースマップが混入し、51万行に及ぶソースコードが丸裸の状態で流出しました。
「安全性」を企業DNAに掲げる会社が、自社の運用で連続して失敗するという皮肉な事態です。
しかし、早々と嘲笑する前に、ぜひAnthropicの7人の共同創立者が約1年前に行った内部対談を振り返ってみてください。このポッドキャストは2024年12月に収録され、彼らはこの会社がいかにして立ち上げられたか、RSP(Responsible Scaling Policy:責任あるスケーリング方針)がどのように策定されたか、「安全」という言葉を軽々しく使ってはいけない理由、そしてCEOダリオ・アモデイ氏が繰り返し引用される一言——
「もし建物が毎週火災警報を鳴らしているなら、それは実際には非常に危険な建物だ。」
——を語っています。
今、この言葉を再び耳にするとき、その味わいは確かに異なります。
7人の共同創立者、素早く顔と名前を一致させよう
ダリオ・アモデイ(Dario Amodei)|CEO。元OpenAI研究副社長。神経科学出身。Anthropicの戦略およびセキュリティ路線の最終判断者。本対談では最も多く発言しています。
ダニエラ・アモデイ(Daniela Amodei)|代表取締役(President)。ダリオの姉。以前はStripeで5年半勤務し、信頼性・安全性チーム(Trust & Safety)を率いていました。さらに以前は非営利団体および国際開発分野で活動していました。Anthropicの組織構築および外部コミュニケーションは基本的に彼女が主導しています。
ジェレッド・カプラン(Jared Kaplan)|物理学教授からAI研究者へ転身。スケーリング法則(scaling laws)の主要著者の一人。しばしば第三者の視点から判断を下します。「物理学に飽きたからAIを始めた」と自ら語っています。
クリス・オーラ(Chris Olah)|解釈可能性(interpretability)研究の代表的人物。19歳でサンフランシスコベイエリアのAIコミュニティに参入。Google BrainおよびOpenAIで勤務。Anthropicでは技術的理想主義色が最も濃い人物です。
トム・ブラウン(Tom Brown)|GPT-3論文の第一著者。現在はAnthropicの計算資源を統括。エンジニアリングおよびインフラストラクチャ視点が強く、ポッドキャストでは「AIがこれほど速く進化するとは思っていなかった」から考えを改めるまでの過程について多く語っています。
ジャック・クラーク(Jack Clark)|元ブルームバーグのテクノロジー担当記者。Anthropicの政策・公共関係責任者。本対談では司会を務め、進行および追及的な質問を担当しています。
サム・マキャンディッシュ(Sam McCandlish)|研究共同創立者。発言は最少ですが、一言で核心を突く「仕上げ役」的存在です。
注目すべき主張の要約

なぜAIをやるのか:物理への飽きから「見続けたら信じた」へ
ジェレッド・カプラン:「私は長い間物理学をやっていましたが、少しつまらなくなっていたので、もっと多くの友人と一緒に働きたいと思い、AIを始めました。」
ダリオ・アモデイ:「私はあなたを明確に説得した覚えはありません。ただひたすらAIモデルの結果を見せ続けていただけです。ある時点で、十分に多く見せた結果、あなたは『うん、これは正しいように見える』と言ったのです。」
反コンセンサスへの賭け:多くのコンセンサスは、単なる群れ行動の仮面を被った成熟に過ぎない
ジェレッド・カプラン:「多くのAI研究者はAIの冬の時代に精神的に深く傷つき、『野心を持つこと』が許されないと感じている。」
ダリオ・アモデイ:「私が過去10年間で得た最大の教訓は、『みんなが知っている』とされる多くのコンセンサスは、実は群れ行動が成熟を装ったものだということです。コンセンサスが一夜にしてひっくり返るのを何度か目撃すれば、こう言うでしょう——『いいえ、我々はこれを選びます』。たとえ正解率が50%でも、他には誰も貢献していないものを、我々はたくさん貢献できるのです。」
安全性とスケーリングは密接に絡み合っている
ダリオ・アモデイ:「当時、我々がモデルを大規模化しようとした動機の一つは、モデルがまず十分に賢くなることで、RLHF(人間フィードバックによる強化学習)が成立するようにするためでした。これは、今でも我々が信じ続けていることです——安全性とスケーリングは密接に絡み合っています。」
RSP(責任あるスケーリング方針)はAnthropicの「憲法」である
トム・ブラウン:「RSPはAnthropicにとって、まさに我々の憲法です。これは指針となる中核的文書であり、我々はその完成に向けて多大な時間と労力を費やす価値があると考えています。」
ダリオ・アモデイ:「RSPは、安全性基準を満たさない計画の推進を阻止します。我々は空虚なスローガンを掲げているわけではなく、安全性をあらゆるプロセスに実際に組み込んでいるのです。」
火災警報が頻繁に鳴りすぎると、本当に火事が起きても誰も逃げなくなる
ダニエラ・アモデイ:「我々は『安全』という言葉を安易に使い、それが作業の進行を左右させてはいけません。我々の真の目標は、『安全』という言葉が何を意味するのかを、全員が明確に理解することです。」
ダリオ・アモデイ:「真に安全性を損なうのは、むしろ頻繁に行われる『安全訓練』です。もし建物が毎週火災警報を鳴らしているなら、それは実際には非常に危険な建物なのです。」
「高潔な失敗」は罠である
クリス・オーラ:「最も倫理的な行動は、安全性のために他の目標を犠牲にすることで、自らの事業への純粋性を示すというものだとする考え方があります。しかし、このアプローチは自己破滅的です。なぜなら、これによって決断権が安全性を重視しない人々の手に渡ってしまうからです。」
共同創立者たちが収入の80%を寄付すると約束
トム・ブラウン:「我々は全員が、収入の80%を社会発展に貢献する事業に寄付することを約束しました。これは誰もが即座に支持した事柄です。」
誰も起業したいとは思っていなかったが、やるしかないと感じていた
サム・マキャンディッシュ:「実は、我々の中に最初から起業したいと思っていた人は誰もいませんでした。ただ、AIの発展を正しい方向に導く唯一の手段だと感じ、それが我々の責務だと考えたのです。」
ダニエラ・アモデイ:「我々のミッションは、明確かつ純粋であり、テクノロジー業界においてはこのような例はそう多くありません。」
解釈可能性:ニューラルネットワークの中には、まるで「人工生物学」が詰まっている
クリス・オーラ:「ニューラルネットワークは非常に素晴らしく、まだ我々が見ていない美しさがたくさんあります。私は時々、10年後に書店に入って、ニューラルネットワークの『生物学』を扱った教科書を買う光景を想像します。そこには驚嘆すべき内容が盛り込まれているでしょう。」
AIを民主主義の強化ツールとして活用し、独裁の道具にしてはならない
ダリオ・アモデイ:「我々が恐れているのは、AIが誤って開発された場合、独裁主義の道具になる可能性です。では、AIを自由と自律を促進するツールにするにはどうすればよいでしょうか?この領域の重要性は、生物学や解釈可能性と全く同じです。」
ホワイトハウス会議からノーベル賞まで:AIの影響力はすでに技術界を遥かに超えている
ジェレッド・カプラン:「2018年には、大統領が言語モデルを監視していると述べるためにあなたをホワイトハウスに呼ぶなどとは、誰も予想しなかったでしょう。」
ダリオ・アモデイ:「我々はすでに、AlphaFoldに対して化学分野のノーベル賞が授与されたのを見ています。我々が目指すべきは、数百個のAlphaFoldを生み出すことのできるツールを開発することです。」
なぜAIを研究するのか?
ジャック・クラーク:そもそもなぜAIをやろうと思ったのですか?ジェレッド、あなたはなぜAIを始めたのですか?
ジェレッド・カプラン:
私は長い間物理学をやっていましたが、少しつまらなくなっていたので、もっと多くの友人と一緒に働きたいと思い、AIを始めました。
トム・ブラウン:
私は、ダリオがあなたを説得したのだと思っていました。
ダリオ・アモデイ:
私はあなたを明確に「説得」した覚えはありません。ただひたすらAIモデルの結果を見せ続け、それらが単一の問題に限定されず、汎用的であることを伝えようとしていただけです。ある時点で、十分に多く見せた結果、あなたは「うん、これは正しいように見える」と言ったのです。
ジャック・クラーク:クリス、あなたが解釈可能性の研究をしていた頃、Googleで皆と知り合ったのですか?
クリス・オーラ:
いいえ。実は、私が19歳で初めてベイエリアに来たときに、既に皆のうちの何人かと知り合っていました。当時、ダリオとジェレッドはポスドクで、私にはとてもクールに見えました。その後、私はGoogle Brainで働きましたが、ダリオが加わった後、しばらく隣同士で席を並べていました。また、トムとも一緒に仕事をしたことがあります。そして、後にOpenAIに移ってからは、皆と一緒に働くようになりました。
ジャック・クラーク:
私は2015年に、ある会議でダリオにインタビューしようとしていたことを覚えています。その際、GoogleのPR担当者は「まずあなたの論文を全部読め」と言っていたのを思い出します。
ダリオ・アモデイ:
当時、私はGoogleで『Concrete Problems in AI Safety』(AI安全性における具体的な課題)という論文を書いていました。
サム・マキャンディッシュ:
あなたと仕事を始める前、あなたは私のオフィスに招いて、AI全体について丁寧に説明してくれました。その話を終えて思ったのは、「これは私が思っていたよりずっと深刻な問題だ」ということでした。あなたは当時、「大規模な計算リソースの塊(The Big Blob of Compute)」やパラメータ数、人間の神経細胞の規模といった話をしていました。
画期的なスケーリング
ジャック・クラーク:私はOpenAIでスケーリング法則(scaling laws)をやっていた頃を思い出します。モデルを大きくすると本当に有効になり、GPT-2からスケーリング法則、そしてGPT-3に至るまで、多くのプロジェクトで一貫して、奇妙なほど有効だったのです。こうして、我々は次第に近づいていったのです。
ダリオ・アモデイ:我々はまさに「それを成し遂げる人たち」でした。
ジェレッド・カプラン:我々は安全性にも非常にワクワクしていました。当時、AIは非常に強力になるだろうが、人類の価値観を理解できず、我々と意思疎通もできないのではないかというアイデアがありました。言語モデルは、ある程度、暗黙の知識を理解しなければならないという点で、この懸念を緩和してくれると考えられました。
ダリオ・アモデイ:
さらに、言語モデルの上位にあるRLHF(人間フィードバックによる強化学習)についても、当時モデルを大規模化しようとした動機の一つは、モデルがまず十分に賢くなり、RLHFが成立するようにするためでした。これは、今でも我々が信じ続けていることです——安全性とスケーリングは密接に絡み合っています。
クリス・オーラ:
はい、当時のスケーリング作業は実際には安全性チームの一部でもありました。なぜなら、人々が安全性を真剣に受け止めてもらうためには、まずAIの動向を予測できる必要があると考えていたからです。
ジャック・クラーク:私はイギリスのある空港で、GPT-2を使って偽ニュースを生成し、Slackでダリオに送って「これは本当に使える。おそらく大きな政策的影響を及ぼすだろう」と言ったら、ダリオは「そうだ」と返信したのを覚えています。
その後、我々は多くのリリース関連の作業も行いました。それはとても狂気じみた時期でした。
ダニエラ・アモデイ:
私はそのリリース期間を覚えています。あれが、我々が初めて本格的に協力し始めた瞬間でした。GPT-2のリリースです。
ジャック・クラーク:
あの経験は、我々にとって非常に有益でした。まず、ちょっと変だけど安全性志向のことを一緒にやり、その後、より大規模で、やはりちょっと変だけど安全性志向のAnthropicを一緒に立ち上げたのです。
AIの黎明期
トム・ブラウン:『Concrete Problems』という論文に戻りましょう。私は2016年にOpenAIに入りましたが、当時あなたと私はどちらも初期メンバーでした。私は、この論文が最初の主流AI安全性論文のように感じました。この論文はどのように生まれたのですか?
ダリオ・アモデイ:
クリスは知っています。彼はこの論文に参加しました。当時、我々はGoogleにいましたが、私は自分がメインでやっていたプロジェクトが何かすら忘れてしまいました。この論文は、一種の先延ばしの産物だったのです。
我々は、AI安全性に関する未解決の課題を書き出してみようと思いました。当時、AI安全性は常に抽象的に語られており、我々はそれを当時の現実の機械学習(ML)に落とし込もうと考えました。今ではすでに6~7年間、この路線で研究が続いていますが、当時はまったく奇抜な考えでした。
クリス・オーラ:
ある意味で、これはほとんど政治的プロジェクトだったと思います。当時、多くの人が安全性を軽視していました。我々は、誰もが妥当だと認めるような課題リストを作成し、その多くは既存の文献に存在するものでしたが、複数の機関にまたがる信頼性の高い研究者たちに共同署名してもらうことにしました。
私は、Brain部門の20人以上の研究者と交渉し、出版への支持を得るために長い時間を費やしました。課題そのものだけを見れば、今になって見直すと必ずしもすべてが成立しているとは限りません。あるいは、最適な課題ではなかったかもしれません。しかし、これを「合意形成」のプロセスとして見るならば——「ここには現実の課題があり、真剣に取り組む価値がある」ということを証明する重要な瞬間でした。
ジャック・クラーク:
最終的には、非常に奇妙なSFのような世界に入ることになります。私は、Anthropicの初期にConstitutional AI(憲法的AI)について聞いたことを覚えています。ジェレッドは『我々が言語モデルに憲法を書き与えると、その振る舞いが変わる』と言っていました。当時はとても狂気じみた話に聞こえました。なぜあなたたちはこれが可能だと考えたのですか?
ジェレッド・カプラン:
私はダリオと長く議論しましたが、AIではシンプルな方法がしばしば極めて効果的であると感じました。初期バージョンはかなり複雑でしたが、徐々に削ぎ落としていき、最終的にはこうなりました——モデルが選択肢問題を解くのが得意であるという特性を利用し、明確なプロンプトで何を探せばよいのかを指示すれば十分であり、原則はそのまま書き下せばよい、というものです。
ダリオ・アモデイ:
これは、「大規模な計算リソースの塊(The Big Blob of Compute)」「苦い教訓(The Bitter Lesson)」「スケーリング仮説(Scaling Hypothesis)」に戻ります。AIに明確な目標とデータを与えさえすれば、それは学習できるという考え方です。一連の命令、一連の原則——言語モデルはそれらを読み、自身の振る舞いと照らし合わせることができ、トレーニングの目的はそこに明記されています。だから、ジェレッドと私はこう考えました——細部を何度も調整すれば、これは実現可能です。
ジェレッド・カプラン:
私にとって初期はとても不思議でした。私は物理学から転身したのですが、今では誰もがAIに興奮していますが、当時の雰囲気を忘れがちです。当時、ダリオとこうした話をする中で、多くのAI研究者がAIの冬の時代に精神的に深く傷つき、「野心を持つこと」が許されないと感じていることに気づきました。安全性について議論するためには、まずAIが非常に強力で非常に有用であると信じる必要がありますが、当時はそのような野心を禁じる風潮がありました。物理学者の一つの強みは「傲慢さ」です。彼らは常に壮大なことを目指し、宏大なビジョンについて語ることに慣れているのです。
ダリオ・アモデイ:
これは本当だと思います。2014年には、多くのことが口に出しては言えませんでした。これは学術界全体の問題でもあり、特定の分野を除けば、機関はリスクを嫌う傾向が強まり、産業界のAIもこの姿勢を受け継いでいました。私は、2022年頃までこの傾向が続いたと感じています。
クリス・オーラ:
「保守的」という態度には二種類あります。一つはリスクを真剣に捉えること、もう一つは、真剣に捉えてかつ成功の可能性を信じることを傲慢だと見なすことです。当時は後者が支配的でした。歴史的に見れば、1939年の原子核物理学の議論でも同様でした——フェルミは抵抗し、シラードやテラーはリスクを真剣に捉えていました。
ダリオ・アモデイ:
私が過去10年間で得た最大の教訓は、「みんなが知っている」とされる多くのコンセンサスは、実は群れ行動が成熟を装ったものだということです。コンセンサスが一夜にしてひっくり返るのを何度か目撃すれば、こう言うでしょう——「いいえ、我々はこれを選びます」。たとえ正解率が50%でも、他には誰も貢献していないものを、我々はたくさん貢献できるのです。
一般社会における人工知能への態度の変化
ジェレッド・カプラン:今日、いくつかの安全性に関する課題でも同様です。外部のコンセンサスでは、多くの安全性の問題は技術から自然に生じるものではないと考えられていますが、Anthropicでの研究では、それが実際に自然に生じることが確認されています。
ダニエラ・アモデイ:
しかし、過去18ヶ月でこれは変化しており、同時に世界のAIに対する感情も明らかに変化しています。ユーザー調査を行うと、一般ユーザーがAIが世界全体に与える影響を心配しているという声を、より頻繁に聞くようになりました。
時には雇用やバイアス、有害性について、時には「AIが世界を混乱させ、人類の協働の在り方を変えるのではないか」という懸念もあります。これは、私自身も完全には予測していませんでした。
サム・マキャンディッシュ:
なぜか、ML研究コミュニティは一般の人々よりも「AIが非常に強力になる」という点に関して悲観的であることが多いです。
ジェレッド・カプラン:
2023年、私はダリオとともにホワイトハウスを訪問しました。その会議で、ハリス副大統領やレイモンド商務長官は、基本的には「我々はあなたたちを注視している。AIは重大な課題であり、我々は真剣に注目している」という趣旨の発言をしました。しかし、2018年には「大統領が言語モデルを監視していると述べるためにあなたをホワイトハウスに呼ぶ」とは、誰も予想しなかったでしょう。
トム・ブラウン:
面白いのは、我々の多くが、このことがまだ不確かだと感じていた頃に参入したことです。フェルミが原爆を疑っていたように、原爆が製造可能であるという証拠もありましたが、そうでないという証拠もたくさんありました。それでも彼は、もし本当なら影響が大きいという理由で、試みることを決めました。
2015~2017年には、AIが重大な出来事になるという証拠が、徐々に増え続けていました。2016年、私は指導教官と話しました。「私は起業経験がありますが、AI安全性をやりたいと思っています。しかし数学が十分に強くないので、どうしたらよいのかわかりません。」当時、誰かは「意思決定理論を完璧にマスターする必要がある」と言い、別の誰かは「狂気じみたAIイベントは起こらない。本当に支援してくれる人はほとんどいない」と言っていました。
ジャック・クラーク:
私は2014年にImageNetのトレンドを報道したとき、狂気じみていると言われました。2015年には、NVIDIAが論文でGPUを頻繁に言及しているという記事を書こうとしたときも、狂気じみていると言われました。2016年に新聞を辞めてAIの世界に入ったときには、「人生最大の間違いを犯した」というメールをもらいました。当時、多くの観点から見れば、「スケーリングが成功する」ということに真剣に賭けるのは、本当に狂気じみたことでした。
ジェレッド・カプラン:あなたはどうやって決断したのですか?迷いましたか?
ジャック・クラーク:
私は逆向きの賭けをしました——フルタイムのAIジャーナリストとして採用され、給与を倍増させるという条件を提示しましたが、彼らが承諾しないことはわかっていました。そして、翌朝目覚めるとすぐに退職しました。なぜなら、私は毎日アーカイブファイルを読んでおり、何か狂気じみた大きな出来事が起こっているという感覚がずっとあり、ある時点で、強い信念を持って賭けるべきだと感じたからです。
トム・ブラウン:
私はそこまで果断ではありませんでした。私は6か月間揺れました。
ダニエラ・アモデイ:
しかも当時、「エンジニアがAIを大きく動かすことができる」という考えは主流ではありませんでした。当時は「AIができるのは研究者だけだ」という認識でしたから、あなたの迷いは当然です。
トム・ブラウン:
その後、OpenAIが「あなたはエンジニアリングを通じてAIの安全性に貢献できる」と言ったことで、私は加入を決めました。ダニエラ、あなたはOpenAIで私の上司だったのですが、あなたはなぜOpenAIに加入したのですか?
ダニエラ・アモデイ:
私はStripeで5年半勤務し、グレッグが私の上司でした。私はグレッグとダリオを紹介したこともあります。当時、グレッグはOpenAIを設立しようとしており、私は彼にこう言いました。「私が知っている中で最も賢い人はダリオです。もし彼をチームに迎え入れることができれば、それはあなたの幸運です。」その後、ダリオはOpenAIに加入しました。
おそらくあなたと同じように、私もStripeを離れた後、自分は何をしたいのかを考えていたところでした。私がStripeに加入したのは、以前に非営利団体および国際開発分野で働いていた際に、自分にはもっとスキルが必要だと感じたからです。実は当時、自分は最終的にその分野に戻るつもりだと考えていました。
Stripeに入る前は、自分には恵まれない人々を助けるのに十分な能力がないと感じていました。そこで、他のテクノロジー企業にも目を向け、より大きな影響を与える新しい方法を探していました。当時のOpenAIは、非常に良い選択肢に思えました。それは非営利組織であり、非常に重要で壮大な目標を追求していました。
私はAIの可能性をずっと信じており、ダリオについてもある程度知っていました。また、彼らは確かに人材を必要としていたので、この仕事は私の背景と非常に合致していると感じました。当時、私はこう思いました。「これは非営利団体であり、非常に優秀で素晴らしいビジョンを持つ人々が集まっている。しかし、その運営はまだ少し混沌としている。」この挑戦こそが、私をワクワクさせたのです。私はそこに加わって、その混沌を整理したいと感じました。
当時、私はマルチタスク型の人物のように感じていました。チームメンバーの管理だけでなく、技術チームのリード、組織の拡大管理も担当し、組織拡大の業務を主に担当していました。また、言語チームでも働いたり、他のタスクも引き受けたりしました。さらに、政策関連の業務にも携わり、クリスとも共同作業を行いました。会社には非常に優秀な人材がたくさんいて、それが私を非常に強く惹きつけました。私は、この会社をより効率的で、より体系立てられたものにしたいと感じました。
ジャック・クラーク:私はGPT-3の後、あなたが『あなたたちはトラスト&セーフティ(信頼性・安全性)について聞いたことがありますか?』と言ったのを覚えています。
ダニエラ・アモデイ:
私は以前、Stripeでトラスト&セーフティチームを率いていました。このような技術では、信頼性と安全性について検討する必要があると考えました。これは、AI安全性研究(AI Safety Research)とより実践的な日常業務の橋渡しとなるものであり、つまり、モデルを実際に安全なものにする方法です。
「この技術が将来、重大な影響を及ぼすだろう」と提言することは非常に重要です。同時に、将来のより高いリスクの状況に対応するために、日常的なより実践的な作業も行う必要があります。
責任あるスケーリング方針(RSP):AIの安全な発展を確保する
ジャック・クラーク:ここで、責任あるスケーリング方針(RSP:Responsible Scaling Policy)がどのように提唱され、なぜそれを思いついたのか、そして現在それがどのように適用されているのか、特に我々が現在モデルの信頼性・安全性に関して行っている作業を踏まえて、詳しくお話ししてください。では、このRSP(責任あるスケーリング方針)は、誰が最初に提唱したのでしょうか?
ダリオ・アモデイ:
最初に提唱したのは私とポール・クリスティアーノで、2022年末頃のことです。当初のアイデアは、ある特定の規模に達するまでモデルのスケーリングを一時的に制限し、ある安全性の課題を解決するまで待つべきかどうか、という問いかけでした。
しかし、その後、あるポイントでスケーリングを制限し、その後解除するというやり方は奇妙だと感じました。そのため、我々は一連の閾値を設定することにしました。モデルが各閾値に達するごとに、モデルが対応する安全性能力を備えているかどうかを評価する一連のテストを行うのです。
各閾値に達するごとに、より厳格な安全性および保証措置を講じる必要があります。ただし、当初から我々は、この方針を第三者が実施した方が良いという考えを持っていました。つまり、この方針は単一の企業が独自に負担すべきものではなく、そうでなければ他の企業はこの方針を採用しなくなるでしょう。そのため、ポールがこの方針を直接設計しました。もちろん、時間の経過とともに、その多くの詳細も変化しました。一方、我々のチームは、この方針をよりよく機能させる方法を研究し続けています。
ポールがこの概念を体系化した後、彼はほぼその概念を公表したのと同時に、我々も1~2か月以内に独自のバージョンをリリースしました。実際、このプロセスには我々チームの多くのメンバーが深く関与しました。私は少なくとも初稿の一つを書きましたが、この文書は何度も修正されました。
トム・ブラウン:
RSPはAnthropicにとって、まさに我々の「憲法」です。これは指針となる中核的文書であり、我々はその正確性と完全性を確保するために、多大な時間と労力を費やす価値があると考えています。
ダニエラ・アモデイ:
私は、RSPがAnthropicの発展過程において本当に興味深いものだと感じています。それは複数の段階を経て、またそれを推進するためにさまざまなスキルが必要です。例えば、宏大的な理念の部分は、主にダリオ、ポール、サム、ジェレッドなどが担当し、「我々の核心的な原則は何なのか?我々はどのようなメッセージを伝えたいのか?我々の方向性が正しいとどう確認できるのか?」といった問いを考えていました。
しかし、それ以外にも、非常に実践的な運用レベルの作業があります。例えば、反復的な改善プロセスの中で、我々はいくつかの詳細を評価・調整します。例えば、ある安全性レベルで達成されるはずの目標が実現されなかった場合、我々は再評価を行い、自分の作業結果に責任を持てるようにします。
さらに、組織構造に関連する多くの調整もあります。例えば、RSPの組織構造を再設計し、責任をより明確に分けることに決めました。私は、この文書の重要性を憲法に例えるのが好きです。アメリカ合衆国は憲法の実施を保証するために、裁判所、最高裁判所、大統領、上下両院など、一整套の制度と機関を設立しました。これらの機関は他の任務も担っていますが、その存在は大きく憲法の維持を目的としています。我々のAnthropicにおけるRSPも、同様のプロセスを経ています。
サム・マキャンディッシュ:
これは、我々が安全性の問題を解決可能であると見なすという核心的な見解を反映していると思います。これは非常に複雑で困難なタスクであり、多大な時間と労力が必要です。
自動車の安全性の分野も同様で、関連する制度や機関は長年の積み重ねで築かれました。しかし、我々が直面している問題は、この作業を完了するのに十分な時間が与えられるかどうかです。そのため、我々はAIの安全性に必要なキーディーンズを可能な限り迅速に特定し、まず自社で確立するとともに、他の場所でも模倣・普及できるようにすることが求められています。
ダリオ・アモデイ:
これはまた、組織内の協力と統一を促進するのにも役立ちます。なぜなら、組織内のどの部門であれ、我々の安全性の価値観に反する行動を取れば、RSPが何らかの形で問題を浮き彫りにするからです。RSPは、安全性基準を満たさない計画の推進を阻止します。したがって、これは全員に安全性を常に意識させるツールでもあり、安全性を製品開発および計画プロセスの基本要件に組み込むことを保証します。我々は空虚なスローガンを掲げているわけではなく、安全性をあらゆるプロセスに実際に組み込んでいるのです。誰かがチームに加わった後、これらの原則に同意できなければ、自らがその環境に溶け込めないことに気づくでしょう。その方向に適応するか、あるいは継続が難しくなるかのいずれかです。
ジャック・クラーク:
時間の経過とともに、RSPはますます重要になっています。我々はこれに数千時間の作業を費やしており、私が上院議員たちにRSPを説明した際、「我々は、技術が悪用されにくく、かつ安全であることを保証するためのいくつかの措置を講じています」と言いました。彼らの反応は通常、「それは普通のことですね。难道不是每家公司都这样做的吗?」(「そんなことは、どの会社もやっているのではありませんか?」)というものです。これは少し苦笑いを誘うのですが、実際にはそうではありません。
ダニエラ・アモデイ:
さらに、私はRSPがチームの価値観の統一を促進するだけでなく、会社の透明性も高めていると感じています。なぜなら、RSPは我々の目標を明確に記録しており、社内の誰もがそれを理解でき、外部の人々も我々の安全性に関する目標と方向性を明確に把握できるからです。もちろん、RSPはまだ完璧ではなく、我々は常にそれを最適化・改善し続けています。
「我々が注目している核心的な課題は何なのか」を明確に示すことは重要です。我々は「安全」という言葉を安易に使い、それが作業の進行を左右させてはいけません。例えば、「安全上の問題があるので、これをやらない」とか、「安全上の問題があるので、これをやらなければならない」という言い方はしてはなりません。我々の真の目標は、誰もが「安全」という言葉が何を意味するのかを明確に理解することです。
ダリオ・アモデイ:
長期的には、真正の安全性を損なうのは、むしろ頻繁に行われる「安全訓練」です。私はかつてこう言いました。「もし建物が毎週火災警報を鳴らしているなら、それは実際には非常に危険な建物なのです。」なぜなら、本当に火災が発生したときに誰も注意を払わないかもしれないからです。我々は警報の正確性と校正に非常に注意を払わなければなりません。
クリス・オーラ:
別の視点から見ると、RSPは多くの層で健全なインセンティブを創出しています。例えば、社内では、RSPは各チームのインセンティブを安全性の目標と整合させています。つまり、安全性に関して十分な進捗が得られない場合、関連する作業は停止されます。
また、外部においても、RSPは他の方法よりも健全なインセンティブを創出しています。例えば、ある日、我々が「我々のモデルはすでにある段階に到達したが、その安全性を保証できない」という重大な宣言をしなければならない場合、RSPはその決定を支える明確な枠組みと根拠を提供します。この枠組みは事前に存在し、明確で理解しやすいものです。RSPの初期バージョンについて議論していた頃、私はその潜在能力を完全には理解していませんでしたが、今では、私が思いつく他のどんな方法よりも効果的であると感じています。
ジェレッド・カプラン:
私はこれらの見解に同意しますが、正しい政策、評価基準、境界線の設定に直面する課題を過小評価しているかもしれません。我々はすでにこれらについて多くの反復を重ねており、今も最適化を続けています。難しい問題の一つは、新興技術に関して、それが危険なのか安全なのかを明確に判断することが難しい場合があることです。多くの場合、我々は巨大なグレーゾーンに直面します。これらの課題は、RSPの開発初期に私を非常にワクワクさせ、今でもそう感じています。しかし同時に、この戦略を明確に実施し、本当に機能させるのは、私が当初想像していたよりもはるかに複雑で、より困難であると認識しています。
サム・マキャンディッシュ:
グレーゾーンは完全に予測することはできません。なぜなら、それはどこにでも存在するからです。実際に実施し始めて初めて、問題がどこにあるのかがわかるのです。そのため、我々の目標は、すべての内容をできるだけ早期に実施し、潜在的な問題をできるだけ早く発見することです。
ダリオ・アモデイ:
あなたは3~4回の反復を経てこそ、本当に完璧にできるのです。反復は非常に強力なツールであり、最初から完全に正解することはほとんど不可能です。したがって、リスクが増大し続ける中で、最後まで待つのではなく、できるだけ早期にこれらの反復を完了する必要があります。
ジャック・クラーク:
同時に、内部の制度とプロセスを構築する必要があります。具体的な詳細は時間とともに変化するかもしれませんが、チームの実行力を育成することが最も重要です。
トム・ブラウン:
私はAnthropicの計算資源管理を担当していますが、私にとっては、外部のステークホルダーとのコミュニケーションが重要です。異なる外部の人物は、技術の進化速度について異なる見解を持っています。私も当初は、技術がこれほど速く進化しないと考えていましたが、その後、私の見解は変わりました。そのため、私はこの点を非常に理解できます。RSPは、技術の進化が比較的ゆっくりであると信じる人々と会話する際に特に有用です。我々は彼らにこう言えます。「技術が非常に緊急の状態になる前に、我々は極端な安全性措置を講じる必要はありません。」もし彼らが「私は、長い間この状況が緊急にならないだろう」と言うなら、私は「では、当面は極端な安全性措置を講じる必要はありません」と返答できます。これにより、外部とのコミュニケーションがよりスムーズになります。
ジャック・クラーク:
では、RSPは他にどのような点で皆に影響を与えていますか?
サム・マキャンディッシュ:
すべては評価を中心に回っています。各チームは評価を行っています。例えば、あなたのトレーニングチームは常に評価作業を行っており、我々はこのモデルが危険になるほど十分に強力になったかどうかを判断しようとしています。
ダニエラ・アモデイ:
これは、RSPの基準に基づいてモデルのパフォーマンスを評価する必要があることを意味します。例えば、我々が懸念する兆候が存在するかどうかをチェックします。
サム・マキャンディッシュ:
モデルの最低限の能力を評価するのは比較的容易ですが、最高限の能力を評価するのは非常に困難です。そのため、我々は大量の研究努力を投入し、「このモデルが危険なタスクを実行できるかどうか?あるいは、マインドマップ、ベストイベント(best event)、または特定のツールの使用など、我々がまだ考慮していない方法が、モデルに非常に危険な行動を実行させる可能性があるかどうか?」というような問いに答えようとしています。
ジャック・クラーク:
政策立案の過程では、これらの評価ツールが非常に役立ちます。「安全」という概念は非常に抽象的ですが、私は「我々にはこのモデルを展開できるかどうかを決定する評価ツールがある」と言えます。その後、我々は政策立案者、国家安全保障の専門家、CBRN(化学・生物・放射・核)分野の専門家と協力し、正確な評価基準を共同で策定できます。こうした具体的なツールがなければ、これらの協力はそもそも成立しません。しかし、明確な基準があれば、人々はより積極的に参加し、その正確性を保証するための支援を提供してくれるようになります。この点において、RSPの役割は非常に顕著です。
ダニエラ・アモデイ:
RSPは私にとっても非常に重要であり、私の仕事に頻繁に影響を与えています。私がRSPをどう考えるかという点で、少し特徴的な側面があります。それは、RSPの「トーン」、つまりその表現方法です。最近、我々はRSPのトーンを大幅に調整しました。なぜなら、以前のトーンはあまりにも技術的で、対立的な印象さえ与えていたからです。私は、人々が主体的に参加したくなるような仕組みを構築する方法について、多くの時間を費やしました。
RSPが社内の誰もが簡単に理解できる文書であれば、ずっと良いでしょう。今のOKR(目標と主要成果)のようにです。例えば、RSPの主な目標は何ですか?我々はそれが達成されたかどうかをどう知るのでしょうか?現在のAI安全性レベル(ASL)はいくつですか?ASL-2ですか、それともASL-3ですか?誰もが注目すべき重点を知っているなら、潜在的な問題を発見しやすくなります。逆に、RSPが非常に技術的で、少数の人しか理解できないものであれば、その実際の効果は大きく損なわれてしまいます。
RSPがより理解しやすい方向に向かっていることに、とても喜んでいます。今では、社内のほとんどの人、あるいはすべての人が、自分の役職に関係なく、この文書を読むことができ、「これは理にかなっています。私はこれらの原則に基づいてAIを開発したいと思います。また、なぜこれらの問題に注目する必要があるかも理解できます。もし仕事で問題に直面した場合、私は概ね何に注意すべきかがわかります」と感じることができるでしょう。我々は、RSPを工場で働く人が「この安全帯はここにつながるべきだが、今はつながっていない」と簡単に判断できるほどシンプルにしたいと考えています。そうすれば、問題を早期に発見できます。
鍵は、健全なフィードバックメカニズムを構築することです。これにより、経営陣、取締役会、会社の他の部署、そして実際に研究開発を行うチームの間で、円滑なコミュニケーションが可能になります。私は、ほとんどの問題は、コミュニケーションの不全や情報伝達の歪みによって生じると考えています。もし問題が単にこれらの理由で発生したとしたら、それは非常に残念ですよね?結局のところ、我々がしなければならないのは、これらの理念を実際に実行に移し、それを単純明快で、誰もが理解できるものにすることです。
Anthropicの創業物語
サム・マキャンディッシュ:実は、我々の中に最初から会社を立ち上げたいと思っていた人は誰もいませんでした。ただ、これは私たちの責任であり、AIの発展を正しい方向に導く唯一の手段であると感じ、行動を起こす必要があったのです。それが、我々がその約束をした理由です。
ダリオ・アモデイ:
私の最初の考えは単純なものでした。私は、何らかの有益な方法で新しいものを発明・探求したいと考えていました。この考えが私をAIの分野に導き、AIの研究には大量のエンジニアリングのサポート、そして最終的には大量の資金が必要であることに気づきました。
しかし、私は、会社を設立し、環境を管理するための明確な目標と計画がなければ、多くのことは達成されるものの、私がテクノロジー業界で疎外感を抱いていた同じ過ちを繰り返すことになると気づきました。これらの過ちは、同じ人々、同じ態度、同じ思考パターンから生じていました。ある時点で、私は、このことを全く新しい方法で行う必要があると気づき、これは避けられない必然でした。
ジェレッド・カプラン:
私は、あなたが大学院時代に、科学研究を通じて公共の利益を促進する方法を探索するための完全な計画を持っていたことを覚えています。これは、我々の現在の考えと非常に似ています。私は、あなたが「Project Vannevar」というプロジェクトを立ち上げ、それを実現しようとしていたことを覚えています。私は当時教授でしたが、状況を観察し、AIの影響力が極めて速いペースで拡大していることを深く確信していました。
しかし、AI研究には資金が大量に必要であるという点と、物理学の教授として、私は単独でこれらの進展を推進できないと気づきました。私は、信頼できる人々とともに、AIの発展を正しい方向に導くための機関を設立したいと考えました。しかし正直に言って、私は誰かに会社を設立することを勧めたことはありませんし、自分自身が会社を設立したいと思ったこともありません。私にとっては、これは単に目標を達成するための手段に過ぎません。私は、通常、成功の鍵は、世界にとって意味のある目標を本当に大切にし、その目標を達成するための最良の手段を見つけることにあると考えています。
信頼文化の構築方法
ダニエラ・アモデイ:私は、チームの戦略的優位性についてよく考えます。その中で、意外に思えるかもしれませんが、非常に重要な要素の一つは、我々の間の高い信頼性です。大勢の人々が共通のミッションを持つというのは非常に難しいことですが、Anthropicでは、このミッションをどんどん多くの人々に伝えることに成功しています。このチームでは、経営陣を含むすべてのメンバーが、共通のミッションのもとに集まっています。我々のミッションは明確かつ純粋であり、テクノロジー業界ではこのような例はそう多くありません。
私は、我々が目指している目標には純粋な意義が満ちていると感じています。誰もが会社を設立したいと思って始めたわけではありません。ただ、それがやるしかないと思ったのです。もはや元の場所で我々の仕事を進めることはできず、自分たちでそれを成し遂げる必要がありました。
ジャック・クラーク:
当時、GPT-3の登場や、我々全員が関わったり触れていたスケーリング法則(scaling laws)などのプロジェクトを経て、2020年にはAIの動向をすでに明確に見えていました。我々は、すぐに行動を起こさなければ、すぐに取り返しのつかない臨界点に到達してしまうかもしれないと気づきました。この環境に影響を与えるためには、行動を起こす必要がありました。
トム・ブラウン:
私はダニエラの意見を補足したいと思います。私は確かにチーム内に高い信頼性があると感じています。我々全員が、世界に貢献したいという思いでこのチームに加わったことを理解しています。また、我々は全員が収入の80%を社会発展に貢献する事業に寄付することを約束しました。これは、誰もが即座に支持した事柄です。「はい、もちろんそうします。」という声が上がりました。この信頼性は非常に特別で、稀有です。
ダニエラ・アモデイ:
私は、Anthropicは政治色が非常に薄い会社だと感じています。もちろん、我々の視点は一般の人々とは異なるかもしれませんが、私は常にそれを意識しています。私は、我々の採用プロセスやチームメンバーの特性が、この文化を「オフィス政治」に対して天然の免疫を持っているようにしていると感じています。
ダリオ・アモデイ:
さらに、チームの結束力も重要です。チームの結束力は極めて重要です。製品チーム、研究チーム、信頼性・安全性チーム、マーケティングチーム、政策チームなど、すべてのチームが会社の同一の目標を達成するために努力しています。会社内の異なる部門がそれぞれ全く異なる目標を追求すると、混乱が生じます。もし他の部門が自分の仕事を妨害していると感じれば、それは非常に異常な状況です。
私は、我々の最も重要な成果の一つは、会社全体の整合性を維持できたことだと考えています。RSPのようなメカニズムが、この点で重要な役割を果たしています。このメカニズムにより、会社内で特定の部門が問題を作り出し、他の部門がそれを修復しようとするのではなく、すべての部門がそれぞれの機能を果たしながら、統一された変革理論(theory of change)の枠組みの下で協働しています。
クリス・オーラ:
私は当初、OpenAIに加入したのは、それが非営利団体であり、AIの安全性研究に集中できるからでした。しかし、時間の経過とともに、このモデルが私にとって完全には適していないことに気づき、私はいくつかの困難な決断を迫られました。この過程で、私はダリオとダニエラの判断を非常に信頼していましたが、離れたくはありませんでした。なぜなら、AIの実験室を増やすことが、必ずしも世界にとって良いとは限らないと考えていたからです。これは、私が離れることを非常にためらわせる要因でした。
最終的に我々が離れる決断を下したとき、私は会社を設立することに対して依然として保留の態度を取っていました。私は、安全性研究に特化した非営利団体を設立すべきだと主張していました。しかし、最終的には現実的な姿勢と現実の制約を正直に認めることで、Anthropicを設立することが我々の目標を達成するための最善の方法であると理解しました。
ダリオ・アモデイ:
我々が初期に学んだ重要な教訓の一つは、約束は少なく、実行は多くということです。現実的であり、トレードオフを直視することが重要です。なぜなら、信頼と信用は、どんな具体的な政策よりも重要だからです。
ダニエラ・アモデイ:
Anthropicの特徴の一つは、チームの高い信頼性と統一性です。例えば、マイク・クリーガーが安全性の理由から特定の製品のリリースを固執して拒否するのを見たり、ヴィナヤがビジネスのニーズとプロジェクトの完了をバランスよく進める方法を議論しているのを見たりしたとき、私は非常に特別な気持ちになりました。また、技術的安全性チームや推論チームのエンジニアが、製品を安全かつ実用的にする方法について議論しているのを見ることも、非常に特別です。このような統一された目標と現実的な姿勢は、Anthropicの職場環境の最も魅力的な特徴の一つです。
ダリオ・アモデイ:
健全な組織文化とは、誰もが共に直面するトレードオフを理解し、受け入れることです。我々が生きる世界は完璧ではなく、すべての意思決定には異なる利益の間でバランスを取る必要があります。そのバランスは、完全に満足のいくものにはならないことが多いでしょう。しかし、チーム全体が統一された目標の下で、これらのトレードオフに共に向き合い、それぞれの立場から全体の目標に貢献できれば、それは健全なエコシステムです。
サム・マキャンディッシュ:
ある意味で、これは「上向きの競争」です。はい、これは確かに「上向きの競争」です。もちろん、これは全くリスクのない選択ではありません。物事は間違いを起こすかもしれませんが、我々全員が一致して「これが我々の選択だ」と考えています。
AIの頂点を目指す競争
ジャック・クラーク:しかし、市場は本質的に現実的です。したがって、Anthropicとしての会社が成功すればするほど、他の企業は我々の成功をもたらした手法を模倣する動機が高まります。そして、我々の成功が安全性に関する実際の作業と密接に結びついている場合、この成功は業界全体に「引力」を生み出し、他の企業もこの競争に巻き込まれるようになります。ちょうど我々がシートベルトを開発したように、他の企業もそれを模倣できます。これは健全なエコシステムです。
ダリオ・アモデイ:
しかし、「我々はこの技術を開発しないし、あなたも他の誰よりもうまくやれない」と言うのは通用しません。なぜなら、現状から未来への道筋を証明していないからです。世界が求めているのは、業界全体としても、あるいは特定の企業としても、社会が「技術が存在しない」状態から「技術が強力な形で存在し、社会がそれを効果的に管理する」状態へと移行する方法を見つけることです。私は、この目標を達成する唯一の方法は、単一の企業レベル、そして最終的には業界全体のレベルで、これらのトレードオフに真正に向き合うことだと考えています。
あなたは、競争力を維持し、さらには特定の分野で業界をリードしながら、同時に技術の安全性を確保する方法を見つけなければなりません。これを達成できれば、あなたの業界への吸引力は非常に強くなります。規制環境から、異なる企業に加わろうとする優秀な人材、さらには顧客の見方まで、すべての要素が業界を同じ方向に導きます。もし、競争力を犠牲にせず安全性を実現できる、つまりウィンウィンのソリューションを見つけられれば、他の企業もその模倣を促され、このアプローチを採用するようになります。
ジェレッド・カプラン:
私は、RSPのようなメカニズムがこれほど重要である理由が、まさにここにあると考えています。我々は技術の進化の方向を明確に見通し、ある問題に対して高度な警戒を怠ってはならないと理解しています。しかし同時に、「狼が来た」という誤った警報を発してはならず、「イノベーションはここで止めるべきだ」と単純に言うこともできません。我々は、AI技術が顧客に有用で、イノベーティブで、楽しい体験を提供できるようにしつつ、明確に守らなければならない制約条件を見つける必要があります。これらの制約条件は、システムの安全性を確保するだけでなく、他の企業が「安全な前提で成功し、我々と競争できる」と信じられるようにするものです。
ダリオ・アモデイ:
数か月後、RSPを発表した後、有名な3つのAI企業も同様のメカニズムを次々と発表しました。解釈可能性研究は、我々がもう一つ突破口を開いた分野です。さらに、我々はAI安全性研究機関とも協力しており、この全体的な安全性への関心は、深い影響を及ぼしています。
ジャック・クラーク:
はい、フロンティア・レッドチーム(Frontier Red Team)は、ほぼ即座に他の企業に模倣されました。これは良いことです。我々は、すべての研究所が潜在的な高リスクの安全性の問題をテストすることを望んでいます。
ダニエラ・アモデイ:
ジャックも以前に言及したように、顧客も安全性を非常に気にしています。顧客はモデルが誤情報を生成することを望まず、また、モデルの安全性制限を簡単に回避されることも望みません。彼らはモデルが有用で無害であることを望んでおり、我々は顧客との会話で頻繁に「我々はClaudeを選んだ。なぜなら、それがより安全であると知っているからだ」という声を聞きます。私は、これが市場に与える影響は非常に大きいと考えています。我々は信頼性と信頼性の高いモデルを提供できており、これは競合他社にも大きな市場的プレッシャーをかけています。
クリス・オーラ:
ダリオが先ほど述べた見解をさらに展開したいと思います。ある考え方は、「高尚な失敗」が最も道徳的な行為であると主張します。つまり、安全性のために他の目標を犠牲にし、不現実的な方法で行動することで、自分の事業への純粋性を示すべきだというものです。しかし、私は、このアプローチは自己破滅的であると考えます。
まず、このアプローチは、安全性を重視せず、安全性を最優先にしない人々の手に意思決定権を渡してしまいます。一方で、もし我々がインセンティブを整合させ、困難な意思決定を、正しい決定を最も強く支援できる場所に置き、最も強力な証拠に基づいて行動しようと努めれば、ダリオが説明した「上向きの競争」を引き起こすことができます。この競争では、安全性を重視する人々が周縁化されるのではなく、他の人々が我々の歩みに追随し、この競争に加わるようになるのです。
人工知能の未来への展望
ジャック・クラーク:では、今後の我々の取り組みについて、皆さんそれぞれがワクワクしていることは何ですか?
クリス・オーラ:
私は、解釈可能性について多くの理由でワクワクしています。一つは明らかに安全性のためですが、もう一つの理由は、感情的にも私をワクワクさせ、非常に意義深いと感じられるものがあります。それは、ニューラルネットワークが非常に素晴らしく、まだ我々が見ていない美しさがたくさんあるという点です。我々はいつもニューラルネットワークをブラックボックスとして扱い、その内部構造には特に興味を持たないことが多いですが、それを深く掘り下げていくと、内部には驚嘆すべき構造が満ちていることに気づきます。
これは、人々が生物学を見る態度に似ています。誰かが「進化は退屈だ。それは単に長い時間をかけて単純なプロセスを繰り返し、動物を生み出しただけだ」と感じるかもしれません。しかし、実際には進化が生み出したすべての動物は、信じられないほどの複雑さと構造を備えています。私は、進化は最適化プロセスであり、ニューラルネットワークの訓練と似ていると考えています。ニューラルネットワークの内部にも、まるで「人工生物学」のような複雑な構造が存在します。もし、あなたがそれらを深く掘り下げようとすれば、驚嘆すべきものがたくさん見つかるでしょう。
私は、我々がその表面をようやく剥がし始めたばかりだと感じています。それは信じられないほど素晴らしく、発見すべきものがたくさんあります。我々は、その扉をようやく開けたばかりです。次の発見は、非常に素晴らしいものになるでしょう。私は時々、10年後に書店に入り、ニューラルネットワークの解釈可能性に関する教科書、あるいはニューラルネットワークの「生物学」を真正に扱った本を購入する光景を想像します。そこには驚嘆すべき内容が盛り込まれているでしょう。私は、今後10年、あるいは今後数年で、こうした発見を本当に始めることができると信じています。それは、狂気じみたほど驚嘆すべき旅になるでしょう。
ジャック・クラーク:
数年前に、「政府はAIシステムをテスト・評価するための新しい機関を設立し、その機関は非常に専門的で、機能するだろう」と言われても、誰もそれが本当だとは信じなかったでしょう。しかし、それは既に実現しています。政府は、この新しい技術カテゴリーに対応するための「新しい大使館」を設立したといえるでしょう。私はそれがどこへ向かうのかを楽しみにしています。これは、国家がこうした社会的変革に対応する能力を持っていることを意味し、企業に依存するだけではなく、私はその一翼を担えることに喜びを感じています。
ダニエラ・アモデイ:
私は今、
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News














