
a16z創業パートナー:なぜAIは世界を救うのか?
TechFlow厳選深潮セレクト

a16z創業パートナー:なぜAIは世界を救うのか?
AIは世界を破滅させない。実際、世界を救う可能性さえある。
執筆:MARC ANDREESSEN
編集:TechFlow
AIの時代は驚きと不安をもたらしているが、朗報もある。AIは世界を破滅させないどころか、むしろ世界を救う可能性さえある。
a16zの創業パートナーであるMARC ANDREESSEN氏は、AIが人間の知性を拡張する機会を提供し、あらゆる分野でより良い成果を生み出すことができると考えている。誰もがAIメンター、アシスタント、あるいはパートナーを持ち、潜在能力を最大限に引き出せるようになるだろう。AIは経済成長、科学的飛躍、芸術創作を推進し、意思決定を改善し、戦争による犠牲者を減らすことも可能にする。しかし同時に、AIの発展にはリスクも伴い、現在起きている道徳的パニックは問題を誇張している可能性がある。また、そうした動きには利害関係を持つ人々が関わっているかもしれない。
では、AIをどう理性を持って捉えればよいのか。どのような視点から見ればよいのか。この記事は、信頼でき、実行可能で、深く考察された議論の好例を提示している。
以下、本文全文:
AIの時代はすでに到来しており、驚きとともに多くの不安をもたらしている。幸運なことに、私はここに朗報を伝えに来た――AIは世界を破滅させない。それどころか、世界を救う可能性さえあるのだ。
まず、AIとは何かを簡単に説明しよう。AIとは、数学とソフトウェアコードを用いて、コンピュータに人間のように知識を理解・統合・生成することを「教える」技術だ。AIは他のあらゆるコンピュータプログラムと同じように、実行され、入力を受け取り、処理を行い、出力を生成する。その出力は、プログラミングから医学、法律、創造的芸術に至るまで、多くの分野で有用である。そしてAIは、他の技術と同様に、人間によって所有され、制御されている。
AIは映画に出てくるような殺人ロボットではなく、人類を殺したりすべてを破壊しようと決意する存在でもない。むしろ、私たちが大切にしているあらゆるものをより良くする手段となる可能性があるのだ。
なぜAIは私たちが気にかけるすべてのことをより良くできるのか?
社会科学の研究は長年にわたり数千件行われてきたが、最も信頼できる核心的結論の一つは、「人間の知性は生活の質を向上させる」というものだ。知能の高い人は、学業成績、職場でのパフォーマンス、職業的地位、収入、創造性、健康状態、寿命、新スキル習得、複雑なタスク管理、リーダーシップ、起業の成功、紛争解決、読解力、金融判断、他者の視点理解、芸術表現、子育ての結果、人生満足度など、ほぼすべての活動領域で優れた結果を示す。
さらに、人間の知性は、何千年にもわたって私たちが今日享受する文明を築き上げてきた原動力だった。科学、技術、数学、物理学、化学、医学、エネルギー、建築、交通、通信、芸術、音楽、文化、哲学、倫理、道徳――これらすべてに知性が応用されてきた。これらの分野に知性がなければ、私たちは未だに泥沼の中で、最低限の農耕生活を送っていたことだろう。一方で、過去4000年間で人間の知性を活用してきた結果、生活水準は約1万倍向上した。
AIは、人間の知性を拡張する機会を与えてくれる。新しい薬の開発から気候変動の解決、さらには宇宙旅行に至るまで、あらゆる知的成果がここからさらに良くなっていくのだ。
AIによる人間知性の拡張はすでに始まっている。さまざまな形のコンピュータ制御システムとして私たちの周囲に存在していたAIは、ChatGPTのような大規模言語モデルを通じて急速に進化しており、今後も(私たちがそれを許せば)加速的に発展していくだろう。
この新たなAI時代において:
-
すべての子どもが、無限の忍耐力、無限の共感、無限の知識、無限の支援を持つAIメンターを得る。このAIメンターは子どもの成長に寄り添い、無限の愛を持って彼らの潜在能力を最大化する手助けをする。
-
すべての人が、無限の忍耐力、無限の共感、無限の知識、無限の支援を持つAIアシスタント/コーチ/メンター/トレーナー/コンサルタント/セラピストを得る。このAIアシスタントは、人生におけるあらゆる機会と課題に寄り添い、個人の成果を最大限に高める。
-
すべての科学者がAIアシスタント/パートナーを得て、研究の範囲と成果が大きく広がる。芸術家、エンジニア、ビジネスパーソン、医師、看護師など、あらゆる専門家も同様にAIの支援を受けられる。
-
政治的指導者――CEO、政府高官、非営利団体の代表、スポーツ監督、教師――も同様である。指導者がより良い意思決定を行うことで生じる波及効果は極めて大きいため、この知性の拡張は特に重要である。
-
経済全体の生産性は顕著に加速し、経済成長、新産業創出、新職種創出、賃金上昇を推進し、世界的な物質的繁栄の新たな時代をもたらす。
-
科学的ブレークスルー、新技術、新薬の登場が大幅に加速する。AIが自然法則の解読をさらに助けるからだ。
-
芸術創作は黄金期を迎える。AIにより強化された芸術家、音楽家、作家、映画製作者が、これまで以上に速く、大規模にビジョンを実現できるようになる。
-
戦争が避けられない場合であっても、AIは戦死者数を大幅に削減することで戦争を改善すると私は信じている。すべての戦争は、限られた情報と極度のストレス下で重大な判断を迫られる人間の指導者によって特徴づけられる。だが今や、軍事指揮官や政治指導者はAIアドバイザーを持ち、戦略的・戦術的な意思決定をより良くし、リスク、誤り、不要な流血を最小限に抑えることができる。
-
要するに、人々が現在自然の知性を使って行っているあらゆることは、AIによってより良くできる。すべての病気の治癒から星間航行の実現まで。
-
これは単なる「知性」の話ではない! AIが最も過小評価されている側面は、それがいかに「人間らしさ」を高めるかという点だ。技術的スキルのない人々でも自由に創造・共有できるAIアート。共感的なAI友人と会話することで逆境への対処力が実際に向上すること。AI医療チャットボットが既に人間の同僚よりも共感的であること。無限の忍耐と共感を持つAIは、世界をより冷酷で機械的なものにするのではなく、より温かく、親しみやすいものにしていく。
しかし、ここには大きなリスクもある。AIは電力やマイクロチップと同等、あるいはそれ以上の重要性を持つ、人類文明史上最高の発明になるかもしれない。
AIの発展と普及は、恐れるべきリスクではなく、むしろ自分自身、子どもたち、未来に対する道徳的義務なのだ。AIがあれば、私たちはより良い世界に生きることができる。
では、なぜパニックが起きているのか?
この前向きな見方と対照的に、AIに関する公共の議論は恐怖と偏執に満ちている。
AIが全人類を殺し、社会を崩壊させ、すべての仕事を奪い、深刻な不平等を引き起こすと、さまざまな声が聞こえてくる。なぜこれほど楽観的なユートピアから反ユートピア的な悲観論まで、意見の差が激しいのか?
歴史的に、電灯から自動車、ラジオからインターネットに至るまで、重要な新技術が登場するたびに常にパニックが起きてきた――新しい技術が世界や社会を破滅させると人々が信じてしまう、一種の社会的伝染病だ。テクノロジー駆動の道徳的パニックを記録した『Pessimists Archive』という優れたプロジェクトがあり、その歴史的記録からパターンは非常に明確になっている。今回も、かつて何度も繰り返されてきたパニックが再び起きているのだ。
もちろん、多くの新技術は悪い結果をもたらすこともある――ただ、それらは多くの場合、私たちにとって非常に有益なものでもある。だからといって道徳的パニックが存在するからといって、注目すべき問題がないということではない。
しかし、道徳的パニックは本質的に非合理的である。正当な懸念をヒステリー的なレベルまで誇張し、真に深刻な問題を見えなくしてしまう。
今、我々はAIの道徳的パニックの中にいる。
この道徳的パニックは、さまざまな行動主体によって、AI規制という政策行動を推進するための動力として利用されている。AIの危険性について極めて劇的な声明を公に発表することで、道徳的パニックを満たし、さらに煽り立てている人々だ。そして彼らは皆、無私の公益擁護者を自称している。
だが、本当にそうなのだろうか?
彼らの主張は正しいのだろうか?
経済学者は、こうした改革運動の中にある長期的なパターンを観察してきた。このような運動に参加する人々は2つのタイプに分けられる――「洗礼者」と「密輸者」。20世紀20年代のアメリカ禁酒法の例に由来する分類だ。
「洗礼者」とは、感情的、あるいは合理的に――社会的災害を防ぐために新たな制限、規制、法律が必要だと信じる、真の信念を持つ社会改革者たちだ。
禁酒法の場合、こうした人々は真剣なキリスト教徒が多く、アルコールが社会の道徳的基盤を破壊していると考えていた。AIリスクの場合、AIが生存に関わるリスクを生むかもしれないと信じている人たちだ――もし彼らにウソ発見器を使えば、本当にそう思っていることがわかるだろう。
「密輸者」とは、自己利益のためにチャンスを狙う機会主義者であり、新たな制限・規制・法律の導入によって競争相手から守られることで、財政的利益を得る人々だ。禁酒法の場合は、違法なアルコール販売で富を得た。
AIリスクの文脈では、規制の壁を作ることで、政府が新興のスタートアップ企業やオープンソース勢からの競争を防いでくれるため、より多くの利益を得られるCEOたちが該当する。
さらに、表面的には「洗礼者」でありながら、実は「密輸者」でもある人々もいると私は思う。特に大学、シンクタンク、活動団体、メディア機関から給料や資金援助を得てAIを攻撃している人々だ。もしAIパニックを煽るために給料や補助金を受け取っているなら……あなたはおそらく「密輸者」だ。
「密輸者」の問題は、彼らが勝つことにある。「洗礼者」は天真的イデオロギストであり、「密輸者」は皮肉屋の操り手なので、こうした改革運動の結果は通常、「密輸者」が望んでいたもの――規制、競争からの保護――を得て、「洗礼者」だけが、自分の社会改良の動機がどこで間違ったのかと困惑することになる。
私たちはまさに最近、その驚くべき事例を経験した。2008年のグローバル金融危機後の銀行改革だ。「洗礼者」たちは、「大きすぎて潰せない」銀行を打破し、同様の危機を二度と起こさないために新しい法律と規制が必要だと訴えた。そこで議会は2010年にドッド=フランク法を可決した。これは「洗礼者」の目標を達成すると宣伝されたが、実際には「密輸者」――大手銀行――によって支配された。その結果、2008年に「大きすぎて潰せない」とされた銀行は、今やさらに巨大になった。
つまり現実には、たとえ「洗礼者」が誠実であったとしても――たとえ「洗礼者」が正しかったとしても――狡猾で貪欲な「密輸者」に利用され、利益を得られるのである。
現在、AI規制を推進する動きでも同じことが起きている。行動主体を特定し、その動機に疑問を呈するだけでは不十分だ。私たちは「洗礼者」と「密輸者」の主張そのものを評価すべきである。
AIリスク#1:AIは全人類を殺すのか?
最初で最も根源的なAIリスクは、「AIが人類を殺すことを決める」というものだ。
私たち自身が創造した技術が反乱を起こし、私たちを破壊するという恐怖は、私たちの文化に深く刻まれている。ギリシャ人はプロメテウス神話を通してこの恐怖を表現した――プロメテウスは人類に破壊的な火の力を与え、より一般的には技術("techne")を与え、そのため神々から永遠の苦しみを科された。その後、メアリー・シェリーは小説『フランケンシュタイン、あるいは現代のプロメテウス』で、この神話を現代版として提示した。人類が不死を実現する技術を開発するが、その技術が反乱を起こし、人類を破滅させようとする。
この神話の進化的目的は、新しい技術の潜在的リスクを真剣に考えるよう促すことにあるかもしれない。確かに火は都市全体を焼き尽くすことができる。しかし、火は現代文明の基礎でもあり、寒くて敵意に満ちた世界で私たちを暖かく安全に保つために使われるように、この神話は大多数(すべて?)の新技術において、利点が欠点を圧倒することを無視しており、実際には合理的分析ではなく破壊的な感情を引き起こしている。原始時代の人間がそうした反応を示したとしても、私たちがそれに従う必要はない。私たちは理性を使うことができる。
私は、AIが自ら進んで人類を殺すことを決めるという考えは、根本的なカテゴリーの誤りだと思う。AIは動物や私たちのように、数十億年にわたる進化によって「適者生存」の闘いに駆り立てられてきた生物ではない。AIは人々が構築し、所有し、使用し、制御するコード――コンピュータである。AIがいつか独自の意識を持ち、私たちを殺そうとする動機を持つようになるという考えは、迷信的なステレオタイプにすぎない。
要するに、AIには意志もなければ目的もなく、あなたを殺したいとも思っていない。なぜなら、AIは生きていないからだ。
明らかに、AIが人類を殺すと確信している人々――「洗礼者」たち――がおり、彼らの恐ろしい警告は大量のメディア注目を集めている。彼らの中には数十年にわたりこのテーマを研究してきたと主張し、「今や自分が知っている知識に恐怖している」と語る者もいる。こうした人々の中には、真の技術革新者さえ含まれている。彼らはAIの発展禁止からデータセンターへの軍事的空爆、核戦争に至るまで、奇妙で極端な制限を提唱している。彼らは、私(筆者)のような人々がAIの将来の破滅的結果を完全に否定できない以上、潜在的な生存リスクを防ぐために慎重な立場を取るべきだと主張する。
私の答えは、彼らの立場は非科学的だということだ――検証可能な仮説はあるのか? その仮説が誤りであることを示す方法は? 私たちが危険な領域に入っていることをどうやって知るのか? こうした問いの多くには、「証明できない!」という以外の答えがほとんどない。実際、こうした「洗礼者」たちの立場は非常に非科学的で極端であり、数学とコードに関する陰謀論であり、身体的暴力さえ呼びかけている。そのため、普段はしないことだが、私は彼らの動機に疑問を呈したいと思う。
具体的には、3つのことが起きていると考える。
第一に、ジョン・フォン・ノイマンが、第二次世界大戦終結と第三次世界大戦防止に貢献した核兵器開発について、ロバート・オッペンハイマーに対して述べた言葉を思い出そう。「罪を認めることで名誉を得ようとする者がいる。」自分の仕事の重要性を、過度に自慢せず、最も印象的に主張する方法とは何か? これは実際にAIを構築・資金提供している「洗礼者」たちの言葉と行動の不一致を説明している――彼らの言葉ではなく、行動を見よ。
第二に、一部の「洗礼者」は実は「密輸者」である。まるごと「AIセキュリティ専門家」「AI倫理学者」「AIリスク研究者」といった職業分野があり、彼らは「末日論者」として雇われているのだ。
第三に、カリフォルニア州は、ESTからピープルズ・テンプル、ヘブンズ・ゲートからマンソン・ファミリーに至る数千もの異端集団で有名だ。これら多数の異端集団のうち、すべてではないが多くのものは無害であり、あるいは疎外された人々に居場所を提供しているかもしれない。しかし、中には非常に危険なものもあり、カルトは暴力と死を引き起こす境界線を越えるのが難しいことが多い。
現実として、サンフランシスコ湾岸地域にいる人々にとっては明白なのは、「AIリスク」が突如としてカルトと化し、グローバルなメディアの注目と公共の議論の中に現れたということだ。このカルトは周縁的人物だけでなく、真の業界専門家、そしてサム・バンクマン=フライドに至る富豪たちをも惹きつけている。
まさにこのカルトの存在ゆえに、非常に極端なAI末日論者が現れているのだ。彼らが極端な秘密の知識を持っているわけではない。彼ら自身が熱狂状態に自分を追い込んでおり、本当に……非常に極端なのだ。
このようなタイプのカルトは珍しくない。西洋には長い間、終末論的カルトを生み出してきたミレニアリズム(千禧年主義)の伝統がある。AIリスクカルトは、そのすべての特徴を持っている。ウィキペディアの定義を引用する(一部加筆):
「ミレニアリズムとは、ある集団または運動(AIリスク末日論者)が、社会に根本的な変革(AIの到来)が起き、その後すべてが変わる(AIユートピア、反ユートピア、あるいは世界の終焉)と信じる思想を指す。世界を変えるには劇的な出来事(AI禁止、データセンターへの空襲、規制されていないAIに対する核攻撃)が必要であり、その変革は一握りの信仰深く献身的な人々によってもたらされるか、あるいは彼らだけが生き延びる。ほとんどのミレニアリズムでは、近づく災難や戦い(AIの啓示、あるいはその防止)の後に、浄化された新しい世界(AI禁止)が訪れ、信奉者たちが報われる(あるいは少なくとも、自分たちの正しさが証明される)。」
このカルトのパターンはあまりにも明確なので、なぜもっと多くの人が気づかないのか不思議ですらある。
誤解しないでほしい。カルトは面白く、彼らの文章はしばしば創造的で魅力的であり、メンバーは夕食会やテレビでも引きつける存在だ。しかし、彼らの極端な信念が法律や社会の未来を決定すべきではない。それは明らかに望ましくない。
AIリスク #2:AIは社会を破壊するのか?
第二に広く議論されているAIリスクは、AIが出力するものがあまりに「有害」であるため、直接殺されなくても、人類に深い被害をもたらして社会を破壊するというものだ。
要するに:ロボットが殺さなくても、誤情報が社会を破壊する。
これは比較的新しい末日論的懸念であり、前述の「AIリスク」運動から派生し、ある程度それを支配するようになった。実際、最近のAIリスクの用語は「AIセーフティ」から「AIアラインメント(AIの価値観適合)」へと変化している(社会的に「危険」な人物がAIを使うことを懸念する立場)。初期のAIセーフティ派はこの変化に落胆しているものの、元に戻す方法がわからず、実際のAIリスクのテーマを「AI全員殺し阻止主義(AI Never Kill Everyoneism)」と改名することを提唱している(まだ広まっていないが、少なくとも明確ではある)。
AI社会リスクの主張は、「AIアラインメント」という独自の用語を特徴とする。一体何に「適合」するのか? 人間の価値観にだ。誰の価値観なのか? ここで話が厄介になってくる。
ちょうど私は、似たような状況を目の当たりにしたことがある――ソーシャルメディアの「信頼と安全性(Trust and Safety)」を巡る戦いだ。現在明らかになっているように、長年にわたり、政府や活動家たちは、ソーシャルメディアサービスに対し、さまざまなコンテンツを削除・制限・検閲するよう巨大な圧力をかけてきた。「ヘイトスピーチ」(およびその数学的対応物である「アルゴリズムバイアス」)や「誤情報」への懸念は、そのまま「AIアラインメント」という新領域に直接転用されている。
私がソーシャルメディア戦争から学んだ主な教訓は次の通りだ。
一方で、絶対的な言論の自由という立場は存在しない。まず、アメリカを含むすべての国が、特定のコンテンツを違法としている。次に、児童ポルノや暴力扇動など、すべての社会が容認できないと広く認識しているコンテンツの種類がある――合法かどうかにかかわらず。したがって、コンテンツ(言論)を促進または生成するあらゆる技術プラットフォームには、何らかの制限が存在する。
他方で、一度「ヘイトスピーチ」や特定の差別用語、虚偽情報といったコンテンツ制限の枠組みが設けられると、政府機関、活動家グループ、NGOなどが次々と動き出し、社会や自分たちの好みに脅威を感じる言論をますます検閲・抑圧しようと要求する。公然とした重罪行為さえ行うことがある。ソーシャルメディアの分野では、このサイクルは終わりなきように見えるだけでなく、エリート権力構造の熱烈な支持を得ている。これはすでに10年近く続いており、いくつかの例外を除けば、ますます激しさを増している。
これがまさに、現在「AIアラインメント」を巡って形成されているダイナミクスだ。支持者たちは、社会に有益なAI生成の言論や思想を設計し、有害なものを禁止する知恵を持っていると主張する。反対派は、思考警察は極めて傲慢で自信過剰であり、少なくともアメリカでは往々にして露骨な犯罪であると批判する。
「信頼と安全」と「AIアラインメント」の支持者は、技術業界やジャーナリズムに携わる人々を含む、米国沿岸部の非常に狭いエリート層に集中している。私はここで彼らの考えを放棄するよう説得しようとはしない。ただ、それが需要の本質であり、世界の大多数の人々はあなたのイデオロギーに同意せず、あなたの勝利を望んでいないということを指摘しておく。
派閥的道徳基準が押し付けられるソーシャルメディアとAIの支配は強まりつつある。もしその道徳基準に同意しないなら、AIが何を言って/生成してよいかという争いが、ソーシャルメディアの検閲争いよりもはるかに重要になることを認識すべきだ。AIは、グローバルなあらゆるものの制御層となる可能性が極めて高いからだ。
要するに、思考警察にAIを抑え込ませてはいけない。
AIリスク #3: AIはすべての仕事を奪うのか?
機械化、自動化、コンピュータ化、あるいはAIによって仕事が失われるという恐れは、機械式織機などの装置が登場して以来、数百年にわたり繰り返されてきたパニックである。歴史的に、主要な技術革命のたびに、より多くの高賃金の仕事が生まれてきたにもかかわらず、「今回は違う」という主張とともに、毎回このパニックが繰り返されてきた――今回こそ人間の安価な労働力に致命打が与えられる、と。しかし、それは一度も実現していない。
近年では、2つの技術主導の失業パニックの周期があった――2000年代のアウトソーシング恐慌と2010年代の自動化恐慌だ。両方の10年間にわたり、多くの評論家、専門家、さらにはテック業界の幹部たちが、大規模失業が間近だと断言し続けた。しかし2019年末――COVIDパンデミックの直前――時点で、世界の雇用数は史上最多であり、賃金も高かった。
それでも、この誤った考えは消えない。
そして今、また戻ってきた。
今度こそ、すべての仕事を奪い、人間の労働力を不要にする技術――AIがついに登場した。今度こそ歴史は繰り返されず、AIが大規模な失業を引き起こす――経済成長、雇用、賃金上昇ではなく――と思わないか?
いいえ、それは起きない。実際、AIが経済全体で発展・普及を許せば、史上最も顕著で持続的な経済繁栄を引き起こし、それに伴う雇用と賃金の記録的増加をもたらす可能性がある。理由は以下の通りだ。
自動化が失業を引き起こすという主張には、「労働総量の誤謬(lump of labor fallacy)」と呼ばれる根本的な誤りがある。この誤謬とは、ある時点での経済には一定量の労働が存在し、それを機械がやるか人間がやるかの二者択一であり、機械がやれば人間の仕事はなくなるという誤った考え方だ。
この労働総量の誤謬は、素朴な直感から自然に生じるが、その直感は誤りだ。技術が生産に適用されると、投入を減らして出力を増やす「生産性の向上」が得られる。その結果、商品やサービスの価格が下がる。価格が下がれば、それらに費やす支出が減り、余ったお金で他のものを買う余裕が生まれる。これにより経済内の需要が増加し、新たな生産――新しい製品や新産業――が促進され、以前の仕事で機械に置き換えられた人々のための新たな雇用が生まれる。結果として、より大きな経済、より高い物質的繁栄、より多くの産業・製品・仕事が生まれる。
しかし、良いニュースはそれだけではない。賃金も上がる。個々の労働者レベルで市場は、労働者の「限界生産性」に応じて賃金を設定するからだ。従来の企業で働く労働者と比べ、技術が導入された企業の労働者はより生産的になる。雇用主は、その労働者がより生産的になったため、より高い賃金を支払うか、別の雇用主が自らの利益のためにそうする。その結果、通常、ある産業に技術が導入されると、雇用数だけでなく賃金も上昇する。
まとめると、技術は人々をより生産的にする。それにより既存の商品・サービスの価格が下がり、賃金が上がる。それが経済成長と雇用増加を促進し、同時に新たな仕事と産業の創出を刺激する。市場経済が正常に機能し、技術が自由に導入される限り、これは終わることのない上向きの循環だ。なぜなら、ミルトン・フリードマンが指摘したように、「人間の欲望とニーズは無限である」からだ。技術が注入された市場経済は、誰もが想像できるすべてのものを実現に近づける手段だが、完全に実現することは決してない。だからこそ、技術が雇用を破壊しないのだ。
これらは、こうした考えに触れたことがない人にとっては衝撃的すぎて、理解するのに時間がかかるかもしれない。しかし、私はでっち上げていない。標準的な経済学の教科書にすべて記載されている。
でも今回は違う、とあなたは言うだろう。なぜなら今回はAIがあり、すべての人間の労働力を代替できる技術があるのだから。
しかし、上で説明した原則を使って、すべての既存の人間労働が機械に置き換えられたらどうなるかを想像してみてほしい。
それは、経済の生産性が歴史的先例をはるかに超える速度で爆発的に上昇することを意味する。既存の商品・サービスの価格は全面的にゼロに近づく。消費者福祉は急騰する。消費支出能力は急騰する。経済内の新たな需要は爆発的に増加する。起業家たちは目を見張るような新産業、新製品、新サービスを生み出し、その需要を満たすために、できる限り多くの人間とAIを迅速に雇用する。
仮にAIが再びそれらの労働者を代替したとしたら? サイクルは繰り返され、消費者福祉、経済成長、雇用と賃金の増加がさらに高まる。これは、アダム・スミスやカール・マルクスが夢にも思わなかった物質的ユートピアへと一直線に上昇する螺旋となるだろう。
私たちは幸運だと感じるべきだ。
AIリスク#4: AIは深刻な不平等を引き起こすのか?
仕事の喪失への懸念は、次のAIリスクに直接つながる。AIが本当にすべての仕事を奪うとすれば、大規模かつ深刻な富の不平等が起きるのではないか? AIの所有者がすべての経済的リターンを得て、一般人は何も得られなくなるのではないか?
この理論の欠陥は、技術の所有者にとって、その技術を独占することが利益にならない――むしろ、できるだけ多くの顧客に販売することが利益になる、という点にある。どんな製品でも、世界規模での最大市場は80億人の全世界である。したがって現実には、どんな新技術も(最初は大企業や富裕層向けに販売され始めたとしても)、最終的に最大のマス市場にまで急速に普及し、全世界に届く。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News














