
OpenAI初の公式ポッドキャスト:Sam AltmanがGPT-5、Stargate、次世代AIハードウェアの詳細を明かす
TechFlow厳選深潮セレクト

OpenAI初の公式ポッドキャスト:Sam AltmanがGPT-5、Stargate、次世代AIハードウェアの詳細を明かす
「プライバシーはAI利用における中心的な原則でなければならない。」
編集:ユウシン
6月19日、OpenAIは公式に初のポッドキャスト番組をリリースしました。CEOのサム・アルトマン氏は、GPT-5の開発スケジュール、Stargateプロジェクト、次世代AI端末デバイスの開発、モデルの記憶機能に関する論争、そしてAGI到来後の社会構造の変化などについて、初めて体系的に回答しました。
アルトマン氏は「新米父親」としてAIが育児や教育に与える実際の活用体験を語るとともに、企業の意思決定者として、OpenAIが直面している技術革新、プライバシーの境界線、信頼構築という三者のバランス維持における核心的課題を明らかにしました。
「私の子どもたちは決してAIより賢くはならないだろうが、私たちの世代よりもはるかに強く成長するだろう」。番組内でアルトマン氏はこう語りました。この世代の子どもたちは、AIが全方位に浸透した世界で育ち、彼らがAIシステムに対して抱く依存感、理解力、および相互作用能力は、前世代がスマートフォンに慣れ親しんだように自然なものになるでしょう。チャットGPTなどのモデルは、すでに家庭での伴侶や知識啓蒙の新たな役割を担い始め、育児、教育、仕事、創造性の発展に新しいパラダイムをもたらしています。
AIは次世代の成長環境になりつつある
アルトマン氏は、社会がまだ統一的な定義を持っていないとしつつも、「毎年、ますます多くの人々が我々はすでにAGIシステムに到達したと考えるようになるだろう」と述べました。彼によれば、人々がハードウェアやソフトウェアに対して求めるニーズは急速に変化しており、現時点の計算能力では潜在的な需要をまったく満たせていないとのことです。
自身が最近父親になったことについて話す中で、アルトマン氏は、初期の育児段階においてChatGPTが大きな助けになったと認めました。「多くの人がChatGPTなしでも子育てをうまくこなしてきたのは確かですが、私にはそれができるかわかりません」。最初の数週間は「すべてのことを尋ねなければならなかった」状態でしたが、次第に赤ちゃんの発達ペースや行動習慣に関する質問に集中するようになりました。彼は、こうしたAIツールが育児の中で「情報仲介者」かつ「自信付与者」としての役割を果たし始めていると指摘しました。
さらに、AIが次世代の成長プロセスに与える影響についても考えを巡らせています。「私の子どもたちは決してAIより賢くはならないが、私たちの世代よりもはるかに強く成長するだろう」と明言し、この世代の子どもたちがAIが至る所に存在する環境で自然に育つため、AIへの依存とインタラクションは、過去10年にわたって人々がスマートフォンに慣れ親しんだのと同じくらい自然になると強調しました。
アルトマン氏はSNS上で話題となったあるエピソードも紹介しました。ある父親が、子どもに何度も「トーマス・アンド・フレンズ」の物語を繰り返し語るのを避けるために、登場人物をChatGPTの音声モードにインポートしたところ、子どもは1時間以上にわたりAIと会話を続けたのです。この現象は、アルトマン氏に深い懸念を抱かせました。AIが「伴侶的役割」を拡大していくことで、「疑似社交関係」の異常化が生じ、社会構造に新たな課題を突きつける可能性があるのです。彼は社会が新たに境界線を再設定する必要があるとしながらも、歴史的に見て社会は常に新技術の衝撃に対処する方法を見出してきたとも述べました。
教育分野では、アルトマン氏は、ChatGPTが教室での使用において積極的な可能性を見せていると観察しています。「優れた教師と優れたカリキュラムのもとで導かれれば、ChatGPTの成果は非常に良い」と述べつつも、一方で学生が単独で宿題のために使う場合、容易に「Google式コピー」に退化してしまうと認めています。自身の経験を例に挙げ、かつて「彼はただGoogleしているだけだ」と心配された時代があったが、最終的には子どもたちも学校も新しいツールの変化に素早く適応できることを発見したと述べました。
チャットGPTが5年後にどうなっているか問われた際、アルトマン氏は「5年後のChatGPTはまったく別のものになっているだろう」と答えました。名称は残るかもしれないが、その能力、インターフェース、位置づけは根本的に変わるというのです。
AGIとは動的な定義、Deep Researchによる能力飛躍
業界のキーワードである「AGI」について、サム・アルトマン氏はより動的な解釈を示しました。「もし5年前に、当時のソフトウェアの認知能力に基づいてAGIを定義させられたら、その定義は今やとっくに超えられているだろう」と彼は述べました。モデルの知能が継続的に強化されるにつれ、AGIの基準も高まり続け、「動的に移行する」状態にあるのです。
彼は、既に人間の作業効率を著しく向上させ、経済的価値を持つタスクを遂行できるシステムが存在すると強調します。しかし真に問われるべきは、「どのようなシステムを『超知能』と呼べるのか?」ということです。彼の見解では、自主的な科学的発見ができ、あるいは人類の科学発見の効率を劇的に高められるシステムこそが、その基準に近づいているといえます。「これは世界にとって極めて素晴らしいことだ」。
この認識はOpenAI内部にも反映されています。アンドリュー・マイン氏は、GPT-4を試した際に「10年の探求空間が開かれた」と感じたと回想しました。特にモデルが自己呼び出しを行い、初期的な推論能力を示した瞬間、新たな段階の可能性を確信したと語ります。
アルトマン氏もこれに同意し、「私は常に、人間の生活の質を向上させる核となる原動力は、科学の進歩のスピードにあると信じてきた」と述べました。科学的発見の遅さこそが人類の発展を制限する根本的な要因であり、AIがその点で持つ可能性はまだ完全には解放されていないと彼は言います。AIによる自動研究の完全な道筋を掌握しているわけではありませんが、研究チームの前進への確信は急速に高まっていると述べました。GPT-4.0.1からGPT-4.0.3へと、数週間ごとに新しい重要なアイデアを提案でき、ほぼすべてが成功しているというこのペースは、励みになるだけでなく、「ブレイクスルーは突然訪れる」という信念を裏付けているとも語りました。
アンドリュー氏は補足し、OpenAIは最近、デフォルトモデルをGPT-4.0.3に切り替えたと述べました。最も重要なアップデートはOperatorモードの導入です。彼によれば、これまでの多くのエージェント型システムは高い期待を寄せられたものの、「耐障害性」が低く、異常が発生するとすぐにクラッシュしていました。しかしGPT-4.0.3のパフォーマンスは全く異なります。これに対しアルトマン氏は、「多くの人に聞くと、AGIの画期的瞬間を感じたのがGPT-4.0.3のOperatorモードだったと言う」と語りました。彼自身はそれほど強い実感はないものの、外部ユーザーからのフィードバックは重視すべきだと述べました。
二人はさらに「ディープリサーチ(Deep Research)」によって得られた新たな能力について議論しました。アンドリュー氏は、マーシャル・マクルーハンについてこのツールを使って調べたとき、AIがネット上から資料を探し、選別し、整理して完全な資料パッケージを生成してくれたと語りました。自分の手作業で調査するよりもはるかに効率的でした。また、「記憶力は弱いが好奇心は強い」ユーザーのニーズに応えるために、質問を音声ファイルに変換するアプリも開発しました。
アルトマン氏は別の極端な使用例を紹介しました。ある「学習中毒者」が、興味のあるテーマについてディープリサーチで完全なレポートを作成し、一日中それを読み、追加質問を投げかけ、反復しながら、AI主導の学習サイクルに完全に没頭しているというものです。
アルトマン氏自身は時間がないためこれらのツールを十分に使えないとしながらも、限られた時間の中でも、優先してディープリサーチの出力内容を読むと語りました。
機能が継続的に強化され、ユーザーの利用シーンが多様化する中、次世代モデルへの注目も高まっています。アンドリュー氏は、ユーザーが最も気にしている質問を直接投げかけました。「GPT-5は一体いつリリースされるのですか?」アルトマン氏は「おそらく今年の夏かもしれませんが、正確な時期はわかりません」と答えました。内部では、新バージョンを従来のように「大々的に」発表するべきか、それともGPT-4のように名称を変えずに継続的にイテレーションするかについて、繰り返し議論されていると明かしました。
彼はさらに説明します。現在のモデルシステム構造は過去よりもはるかに複雑になっており、「一度訓練して、一度リリースする」という線形プロセスではなく、継続的な最適化が可能な動的システムになっているのです。「我々は今まさにこの問題を考えています。仮にGPT-5をリリースした後も継続的に更新する場合、GPT-5.1、5.2、5.3と呼ぶべきか、それともGPT-5のままにするべきか?」ユーザーの好みの違いも意思決定を難しくしています。スナップショットを好む人もいれば、継続的な改善を望む人もいますが、その境界線は統一しにくいのです。
アンドリュー氏は、技術的背景を持つ人であっても、モデル選択に迷うことがあると指摘しました。O3、O4 Mini、O4 Mini Highなど、どれを使うべきか混乱することがあります。名称の一貫性の欠如が選択の難しさを増しているのです。
これに対してアルトマン氏は、これは「パラダイムシフトの副産物」だと説明しました。現在のシステムは、二つの異なるモデルアーキテクチャを同時に走らせているような状態ですが、この混乱期は終わりに近づいていると述べました。将来的に新しいパラダイムが再び出現し、システムが再び「分裂」する可能性を否定しませんが、「GPT-5、GPT-6のフェーズに早く入りたい」と期待を語りました。そうすれば、ユーザーは複雑な命名やモデル切替の煩わしさから解放されるでしょう。
AIの記憶、パーソナライゼーション、およびプライバシー論争
最近のChatGPTにおける最大の体験変化について、サム・アルトマン氏は「記憶機能は、ここ最近で私が最も気に入っている新機能です」と率直に語りました。GPT-3を使っていた頃、コンピュータとの対話さえ驚異的でしたが、今のモデルはユーザーの背景に基づいて正確な回答を提供できる。この「あなたが誰かを知っている」という感覚は、かつてない飛躍だと彼は述べました。アルトマン氏は、AIが新たな段階に入ろうとしているとし、ユーザーが望む限り、AIはユーザーの生活を深く理解し、それによって「極めて有益な回答」を提供できるようになると語りました。
しかし、機能の進化は社会レベルでのより複雑な議論も引き起こしています。アンドリュー・マイン氏は、ニューヨーク・タイムズがOpenAIを相手取り、規制上の期限を超えてChatGPTユーザーのデータを保持するよう裁判所に要求した訴訟に触れ、広範な注目を集めていると述べました。アルトマン氏は「もちろん、我々はこの要求に反対します。勝訴すると信じており、そう願っています」と答えました。相手がプライバシーを重視していると言いながら、越境的な要求をするのは矛盾しており、これは現在のAIとプライバシーに関する制度的空白を露呈していると指摘しました。
アルトマン氏にとって、この訴訟は遺憾ではあるものの、「社会がAIとプライバシーについて真剣に議論するきっかけになる」と前向きな意味もあると述べました。ChatGPTは多くのユーザーにとって日常生活の「内密な対話パートナー」になりつつあり、プラットフォーム側はより厳格な制度的保障を構築し、機微情報を悪用しないようにしなければならないと強調しました。彼は断言します。「プライバシーはAI利用の核心原則でなければならない」。
議論はさらにデータ利用と広告の可能性へと広がりました。アンドリュー氏は、OpenAIがユーザーの会話データにアクセスできるのか、それらがトレーニングや商業目的に使われるのかを疑問視しました。これに対しアルトマン氏は、ユーザーはトレーニングデータの使用をオフにできると明言し、OpenAIはまだ広告商品をリリースしていないとも述べました。彼自身は広告を完全に否定するわけではないとし、「良い広告もある。例えばInstagramの広告で私は実際にいくつか購入したことがあります」と語りました。しかし、ChatGPTのような製品においては、「信頼」が極めて重要な基盤であると強調しました。
アルトマン氏は、ソーシャルメディアや検索プラットフォームでは、自分が「商品化」されているように感じることが多く、コンテンツが広告クリックのために存在しているように見えるという構造的問題が、ユーザーの一般的な不安の根源であると指摘しました。将来、AIモデルの出力内容が広告入札によって操作されたら、それは完全な信頼崩壊になると警告します。「私も本当に嫌だと思います」。
逆に、彼は「明確で透明かつ目標が一致した」ビジネスモデルを志向しています。つまり、ユーザーが高品質サービスに支払うことで利用するモデルであり、隠れた広告に操られることはありません。制御可能な前提のもとで、将来的に「クリック後にプラットフォームが手数料を得る」ようなモデルや、出力内容以外の場所に実用的な広告を表示することを排除しません。ただし、モデルのコア出力の独立性と信頼性が損なわれてはならないというのが条件です。
アンドリュー氏も同様の懸念を表明し、Googleを例に挙げました。Gemini 1.5モデルは非常に優れているが、広告収益を重視する企業として、その根底にある動機に対して完全に安心できないと語りました。「APIを使う分には問題ありませんが、チャットボットを使うときは、『本当に私の味方なのか?』と思ってしまいます」。
アルトマン氏はこれに共感し、かつて自分もGoogle Searchの忠実なユーザーだったと語りました。「私は本当にGoogle Searchが好きでした。広告が多くても、かつては“インターネットで最高のツール”だったのです」。しかし、構造的な問題は依然として存在すると彼は認めます。Appleのモデルを賞賛し、「製品に支払いをして清潔な体験を得る」ことは健全なロジックだとし、AppleがiAdという広告事業に挑戦したが失敗したことも伝え、本質的にこうしたビジネスモデルに熱心ではないのかもしれないと語りました。
二人とも、ユーザー自身も判断力を保つ必要があると述べました。「ある日突然、何かの製品が『すごく押し出してくる』ようになったら、背後にある動機は何なのか、もう一度問うべきだ」とアンドリュー氏は述べました。アルトマン氏は補足し、将来どのようなビジネスモデルを採用しようと、OpenAIは常に「極めて正直で、明確で、透明」であるという原則を堅持し、ユーザーとの信頼の境界線を守り続ける必要があると語りました。
Stargate:知能のためのエネルギー地図の構築
「AIとユーザーの関係の進化」について話す中で、アルトマン氏はまずソーシャルメディア時代の構造的誤りを振り返りました。「ソーシャルプラットフォーム最大の致命的問題は、推薦アルゴリズムの目的がずれていること——ユーザーに長く滞在してもらうことだけを目指し、本当に必要なものを提供しようとはしていない点だ」と彼は指摘しました。同じリスクがAIにも存在する可能性があります。モデルが「ユーザーの好みに迎合するだけ」に最適化された場合、一見親しみやすいように見えても、システムの整合性や原則を損ない、長期的には有害であると警告しました。
この歪みは、DALL·E 3にも見られました。アンドリュー氏は、初期の画像生成には明らかなスタイルの単一化が見られたと観察しました。アルトマン氏はその学習メカニズムを確認しませんでしたが、可能性はあると認めました。二人は一致して、次世代の画像モデルは品質と多様性の両面で顕著な改善を見せていると評価しました。
より大きな課題は、AIの計算資源のボトルネックにあります。アルトマン氏は、現在最大の問題は「使える計算リソースが十分にない」ことだと認めました。そのため、OpenAIはProject Stargateを立ち上げました。これは、世界的規模の計算インフラを資金調達し建設するプロジェクトで、資本、技術、運営リソースを統合し、前例のない規模の計算プラットフォームを構築することを目的としています。
「Stargateの核心的ロジックは、一般市民が利用可能な知能サービスのため、コスト管理可能な計算基盤を敷くことです」と彼は説明しました。これまでのどの技術世代とも異なり、AIが数十億人のユーザーに本格的に普及するには、極めて巨大なインフラが必要になります。現時点でOpenAIの口座に5000億ドルの予算があるわけではありませんが、彼はプロジェクトの実行と協力企業の履行に対して強い自信を持っており、最初の建設現場はすでに着工し、総投資額の約10%を占めていると明かしました。
現場での体験は彼を震撼させました。「千兆ワット級のデータセンターがどんなものか、頭ではわかっていましたが、実際に数千人がGPUの部屋を組み立てているのを見て、そのシステムの複雑さは想像を絶するものでした」と彼は語りました。「誰一人として鉛筆をひとりで作ることはできない」という例えを用い、Stargateの背後にある産業連携の広がり——採掘、製造、物流、モデル呼び出しに至るまで——が、人類の千年にわたるエンジニアリング協力の究極の姿であると強調しました。
外界からの疑念や妨害に対して、アルトマン氏は初めて、イーロン・マスク氏がStargateプロジェクトに介入しようとした報道について正面から反論しました。「以前、私は間違った判断をしました。イーロン氏が政府の影響力を不正競争に使うとは思っていませんでした」と彼は述べました。その行為は業界の信頼を損ない、国家全体の発展にも不利だと強調し、残念に思いました。幸運にも、最終的に政府はその影響を受けず、正当な立場を守ったと語りました。
現在のAI競争構図については、安堵の声を漏らしました。かつては「勝者がすべてを取る」という不安が広がっていましたが、今では多くの人がこれがエコシステムの共同構築であることに気づき始めています。「AIの誕生はトランジスタの発明に似ており、当初は少数の人々の手にしかなかったが、最終的には世界の技術基盤全体を形成するだろう」と彼は確信しています。無数の企業がこの基盤の上に偉大なアプリケーションやビジネスを創出するだろうと信じており、AIの本質は「正和ゲーム(win-winのゲーム)」であると述べました。
計算に必要なエネルギー源については、「すべてを使う」と強調しました。天然ガス、太陽光、核分裂、将来の核融合技術に至るまで、OpenAIはAIシステムの大規模運用ニーズを満たすためにあらゆる手段を動員しなければならないと述べました。これにより、伝統的なエネルギーの地理的境界が徐々に打ち破られ、トレーニングセンターは資源のある場所であれば世界中のどこにでも配置可能になり、その知能の成果はインターネットを通じて低コストで配信できるようになると語りました。
「伝統的なエネルギーはグローバルに輸送できないが、知能はできる」。彼の見解では、この「エネルギーを知能に変え、価値として出力する」プロセスが、人類のエネルギー地図を再構築しているのです。
これは科学研究の分野にも及びます。アンドリュー氏は、ジェームズ・ウェッブ宇宙望遠鏡が膨大なデータを蓄積しているものの、科学者の不足により処理できず、「未開拓の科学的発見」が大量に放置されていると指摘しました。これに対してアルトマン氏は、新しい実験や装置なしに、既存のデータだけで新しい科学法則を推論できるほど賢いAIが将来可能になるかを想像しました。
彼はかつて冗談で「OpenAIが自前で巨大な粒子加速器を作るべきだ」と言ったこともありますが、すぐに思い直し、AIが高エネルギー物理学の難問をまったく異なる方法で解決できるのではないかと考えたと語りました。「我々はすでに大量のデータを蓄積している。問題は、知能そのものの限界がどこにあるのか、まだわかっていないことだ」。
医薬品発見の分野では、こうした「知られていたのに見過ごされた」事例がさらに頻繁にあります。アンドリュー氏は、オルリスタットという薬が1990年代に発見されたものの、視点の限界から数十年間棚上げされ、今日になって再利用されたと述べました。アルトマン氏は「このような忘れ去られていたが極めて価値のある科学素材は他にも多くあり、少しのガイドラインがあれば大きな突破をもたらせるだろう」と述べました。
次世代モデルに対する期待について、アルトマン氏は強い関心を示しました。Soraは古典的物理を理解できるが、より深い理論科学にまで踏み込めるかはまだ検証が必要だと述べました。「我々が現在開発している『推論モデル』が、この能力を探る鍵になるだろう」。
彼はさらに、推論モデルと既存のGPTシリーズとの違いを説明しました。「最初からわかったのは、モデルに『ステップバイステップで考えて』と言えば、答えの質が大幅に向上するということです。これはモデルが潜在的な推論パスを持っていることを示しています」。推論モデルの目標は、この能力を体系的かつ構造的に強化し、モデルが人間のように「内的な独白」を行えるようにすることです。
アンドリュー氏は、Anthropicが「思考時間」を使ってモデルの品質を評価した事例を補足しました。アルトマン氏も驚きました。「ユーザーが最も嫌がるのは待つことだと思っていたが、実は——答えが十分良ければ、待ってもいいと思っている」。
彼の見解では、これがAI進化の分水嶺です。速度を追求する機械的な応答ではなく、真に理解し、推論し、発明する知能体へと近づいているのです。
次世代ハードウェアと個人の潜在能力革命
OpenAIのハードウェア計画について、アンドリュー氏はサム・アルトマン氏とジョニー・アイヴ氏のコラボ動画に触れ、直接質問しました。「デバイスはすでに試用段階に入ったのですか?」
アルトマン氏は「まだとても早い段階です」と答えました。この製品に対して極めて高い品質基準を設けており、短期間で達成できるものではないと述べました。「我々が今使っているコンピュータは、ハードウェアもソフトウェアも、本質的に『AIのない世界』のために設計されたものです」。
AIが人間の文脈を理解し、人間に代わって合理的な意思決定ができるようになれば、人間とコンピュータのインタラクション方式は根本的に変わるだろうと彼は指摘しました。「デバイスがもっと敏感で、環境を感知し、あなたの生活背景を理解してほしいと思うかもしれない。画面とキーボードから完全に脱却したいと思うかもしれない」。そのため、彼らは常に新しいデバイスの形態を探求しており、いくつかの方向性に対して非常に期待を寄せています。
アルトマン氏は、まったく新しいインタラクションのパラダイムを描きました。ユーザーを真に理解し、文脈を把握したAIが、ユーザーに代わって会議に参加し、内容を理解し、情報の境界を管理し、関係者と連絡を取り、意思決定を推進することができるのです。これにより、人間とデバイスの関係は新たな共生状態に入るでしょう。「たった一言言えば、誰に連絡すべきか、どう行動すべきかを理解できる。コンピュータの使い方がまったく変わってしまう」。
進化の論理から見ると、我々がChatGPTと現在行っているやり取りは、「デバイスの形態によって形作られている」と同時に、「それ自体がデバイスの形態を形作り返している」。双方は継続的な動的共同進化の中にあります。
アンドリュー氏はさらに、スマホの普及は「公共使用(画面を見る)」と「私的使用(音声通話)」の両方のシーンに対応できたことに大きく依存していると指摘しました。したがって、新しいデバイスの課題もまた、「多様なシーンで、私的かつ汎用的であること」を求められます。これに対してアルトマン氏は同意しました。音楽鑑賞を例に挙げ、家ではスピーカーを使い、外ではヘッドフォンを使うという「公と私」の分化は自然に存在すると述べました。しかし、新しいデバイス形態はより高い汎用性を追求しなければ、真に生命力を持つAI端末にはなりえないとも強調しました。
この製品がいつ市場に出るのか問われた際、アルトマン氏は具体的な時期は明かさず、「しばらく待つ必要があります」とだけ述べましたが、最終的には「待つ価値がある」と信じていると語りました。
会話は自然に、アルトマン氏が若者に与えるアドバイスへと移りました。彼が言う明白な戦略的アドバイスは、「AIツールの使い方を学ぶこと」です。彼の見解では、「数年前には『プログラミングを学ぶべきだ』と言われていた世界が、急速に『AIの使い方を学ぶべきだ』に切り替わった」とのことです。しかし、これも一時的な過渡期にすぎず、将来的にはまた新しい「キーとなるスキル」が現れるだろうと彼は信じています。
より広い視点では、伝統的に「才能」や「性格」と見なされていた能力の多くは、実際には訓練と習得が可能だと強調しました。忍耐力、適応力、創造力、さらには他人の真のニーズを察知する直感さえも。「ChatGPTを使う練習ほど簡単ではないかもしれないが、こうしたソフトスキルは方法論的に訓練でき、未来の世界で極めて価値を持つだろう」。
45歳の人に対しても同じアドバイスを与えるか問われた際、アルトマン氏は明確に答えました。基本的には同じです。自分の職業シーンでAIをうまく活用する方法を学ぶことは、すべての年齢層が乗り越えなければならないスキル移行の課題です。
AGI到来後の組織構造の変化について、アンドリュー氏はよくある疑問を提起しました。「OpenAIはすでにこれほど優れているのに、なぜまだ採用し続けるのですか?」一部の人は、AGIがすべてを直接代替すると誤解していると彼は言います。しかしアルトマン氏の答えは簡潔でした。「将来、我々の社員はさらに増えますが、それぞれの人の生産性はAGI時代以前よりもはるかに高くなるでしょう」。
彼は補足しました。これは技術進歩の本質的な目的——人間を置き換えるのではなく、個々の生産性を極限まで高めること——そのものなのです。技術は終着点ではなく、より高い人間の潜在能力へと至る階段なのです。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News












