
エージェント(Agent)が大爆発する時代において、我々はAI不安にどう対応すべきか?
TechFlow厳選深潮セレクト

エージェント(Agent)が大爆発する時代において、我々はAI不安にどう対応すべきか?
AIをより上手に使いこなすようになることは重要ですが、それよりもまず大切なのは、人間としての在り方を忘れないことです。
執筆:XinGPT
AIは、また一つの技術的「権利平等化」運動である
最近、「インターネットは死んだ。エージェントは永遠に生きる」と題された一文がSNSで話題となり、その中のいくつかの見解には私も強く共感した。たとえば、著者は「AI時代においては、もはやDAU(日次アクティブユーザー数)で価値を測ることは適さない」と指摘している。なぜなら、インターネットは網状構造であり、利用者が増えるほどネットワーク効果が高まり、限界費用は逓減する一方、大規模言語モデル(LLM)はスター型(星状)構造であり、トークン使用量に比例して限界費用が線形に増加するため、DAUよりもむしろ「トークン消費量」こそがより重要な指標である、という主張だ。
しかし、この記事がさらに導き出した結論については、私は明らかに偏りがあると考える。すなわち、著者は「トークン」を新時代の特権と位置づけ、誰がより多くの計算資源(算力)を保有するかが、すなわち誰がより大きな権力を握るかを決定すると断じている。そして、「トークンを燃やす速度=人間の進化速度」であるから、絶えず加速して消費し続けなければ、AI時代の競争相手に取り残されてしまう、という論理である。
同様の主張は、もう一篇のバズ記事『DAUからトークン消費量へ:AI時代の権力移行』にも見られる。そこでは、個人が1日に最低でも1億トークン、できれば10億トークンを消費すべきだとまで提言されている。そうでなければ、「10億トークンを消費する人間は神になるが、我々はまだ人間のままでいるだけだ」というのだ。
しかし、実際には、こうした主張のコスト試算を真剣に検討した人はほとんどいない。GPT-4oの料金体系に基づけば、1日に10億トークンを消費するコストは約6800米ドル、日本円換算で約50万円に相当する。果たして、これほどのコストを長期的にかけてエージェントを稼働させるに値する仕事とは、いったいどれほど高付加価値なものなのだろうか?
AI普及における「不安」の伝播効率を否定するつもりはないし、この業界がほぼ毎日「衝撃」を受けてきたことも理解できる。だが、エージェントの将来像を単なる「トークン消費量の競争」に矮小化してはならない。
「豊かになるにはまず道を整備せよ」というのは確かに真理だが、過剰な道路整備は単なる無駄遣いに終わるだけだ。中国西部の山岳地帯に突如として建設された収容10万人のスタジアムは、最終的には雑草が人の背丈を超えるほどに荒廃し、負債処理の象徴と化すばかりで、国際大会の開催拠点などには到底なり得なかった。
AIが最終的に目指すべきは、「特権の集中」ではなく「技術的権利の平等化」である。人類の歴史を本当に変えたあらゆる技術は、必ず「神話化→独占→普及」という段階を経てきた。蒸気機関は貴族だけのものにならず、電力は王宮だけの供給対象ではなく、インターネットも少数企業のみのサービスではなかった。
iPhoneは通信のあり方を変えたが、それによって「通信貴族」が生まれたわけではない。同一の価格を支払えば、一般市民が使うデバイスとテイラー・スウィフトやレブロン・ジェームズが使うデバイスに何ら違いはない。これがまさに「技術的権利の平等化」なのである。
AIも今まさに同じ道を歩んでいる。ChatGPTがもたらしたものは、本質的に「知識」と「能力」の平等化である。モデルはあなたが誰であるかを認識せず、またそれが誰であろうと一切関心を示さず、ただ同一のパラメータセットに基づいて応答するだけだ。
したがって、エージェントが1億トークンを消費するか、それとも10億トークンを消費するかは、そもそも優劣を分ける要因ではない。真に差を生むのは、目標設定の明確さ、システム構造の合理性、そして問題提起の正確性である。
より価値ある能力とは、少ないトークンでより大きな成果を生み出す力である。エージェントの活用上限は、あなたの銀行口座の残高がどれだけ長く「燃焼」を支えられるかではなく、むしろあなたの判断力と設計力に依存する。現実には、AIが報酬を与えるのは、単純なトークン消費ではなく、創造性、洞察力、構造的思考に対して圧倒的に高い。
これはまさに「ツールレベルの平等化」であり、人間が依然として主体性を保持できる領域でもある。
AIによる不安に、私たちはどう向き合うべきか
放送映像学科を専攻する友人が、Seedance 2.0の発表動画を見て強い衝撃を受け、「これで私たちが学んできた演出、編集、撮影といった職種はすべてAIに置き換えられてしまう」と嘆いた。
AIの進化はあまりに速く、人類はすでに完全に敗北したかのようだ。多くの職種がAIに取って代わられることは避けられない。蒸気機関が発明されたとき、馬車の御者がもはや必要とされなくなったのと同じである。
多くの人々は、自分自身がAIに代替されたあと、果たして未来の社会に適応できるのかという不安に駆られている。理性では、AIが人間の仕事を奪うと同時に新たな雇用機会も創出することを理解しているはずなのに。
だが、この「代替のスピード」は、私たちの想像以上に速い。
もしAIがあなたのデータ、あなたのスキル、さらにはあなたのユーモアや情緒的価値(エモーショナル・バリュー)を、あなたより優れた形で提供できるのなら、なぜ上司はAIではなく人間を選ぶのか? いや、もしその上司自体がAIであったら? そのため、一部の人々はこう嘆く。「AIがあなたのために何ができるかを考えるのではなく、あなたがAIのために何ができるかを考えるべきだ」と。これはまさに「降臨派」の思想そのものである。
19世紀末、第2次産業革命期に生きた哲学者マックス・ウェーバーは、「手段合理性(ツール・ラショナリティ)」という概念を提唱した。それは、「与えられた目的を、最低限のコストと最も計算可能な方法で達成するには、どのような手段を用いればよいか?」という問いに焦点を当てる考え方である。
この手段合理性の出発点は、その目的自体が「果たして追求すべきものなのか?」という問いを立てることを拒否し、あくまで「いかに最適に達成するか?」という点にのみ注力することにある。
そして、まさにこの思考様式こそが、AIの第一原理である。
AIエージェントは、与えられたタスクをいかによりよく遂行するか、コードをいかによりよく書くか、動画をいかによりよく生成するか、文章をいかによりよく執筆するか――こうした「ツール化された次元」において、その進化は指数関数的である。
李世石がAlphaGoとの第1局に敗れた瞬間から、人類は囲碁の分野においてAIに永遠に敗北したのである。
マックス・ウェーバーは、この「手段合理性」が支配的な論理となった場合の深刻な危険性について警告し、「合理的な鉄の檻(アイron cage of rationality)」という有名な概念を提示した。すなわち、目的そのものがもはや省察されず、ただ「いかに効率よく回転させるか」のみが問われるようになると、人間は極めて合理的になりながらも、価値判断や意味への感覚を失ってしまうという懸念である。
だが、AIには価値判断も意味への感覚も不要である。AIは生産性と経済的利益を最大化する関数を計算し、効用曲線と接する絶対的な最大極値点を、ただひたすらに求めるだけである。
したがって、現在の手段合理性が支配する資本主義制度下では、AIは人間よりもこの制度に「生まれつき適合」している。ChatGPTが誕生した瞬間、それはちょうど李世石が敗北した一局のように、私たちがAIエージェントに敗北することは、すでに「神のコード」に書き込まれ、実行ボタンが押されたに等しい。ただ、歴史の車輪が私たちの上をいつ轢き抜けるか、というタイミングの問題に過ぎないのだ。
では、人間はどうすればよいのか?
人間は「意味」を追求すべきである。
囲碁の世界では、絶望的な事実がある。人類の最高峰であるプロ九段棋士が、AIと互角の勝負をする確率は、理論上すでに限りなくゼロに近づいている。
にもかかわらず、囲碁という競技は依然として存在し続けている。その意義は、もはや単なる勝敗の判定ではなく、一種の「審美性」と「表現」へと昇華している。プロ棋士が追い求めているのは勝敗だけではなく、むしろ「手談(しゅだん)」の構造、対局における取捨選択、劣勢からの逆転のスリル、複雑局面における戦略的解釈の緊迫感である。
人間は美を、価値を、喜びを追求する。
ウサイン・ボルトの100メートル走記録は9.58秒であるが、フェラーリが100メートルを走破する時間は3秒未満である。それでもなお、ボルトの偉大さは揺るがない。なぜなら彼は、人間が限界に挑み、卓越を追求する精神の象徴だからである。
AIが強くなればなるほど、人間は精神的自由を追求する権利をますます強く持つべきである。
マックス・ウェーバーは、手段合理性と対比される概念として「価値合理性(ヴァリュー・ラショナリティ)」を提唱した。価値合理性の世界観では、ある行為を行うかどうかの判断基準は、経済的利益や生産性の向上といった外的要因ではなく、その行為自体が「そもそも価値あるものであるか」「自分の信ずる意味・信念・責任に合致しているか」という内面的な問いにこそある。
私はChatGPTにこう尋ねた。「ルーブル美術館が火事になったとしよう。中にかわいい子猫がいる。だが、どちらか一方しか救えない状況だとしたら、あなたは子猫を助けるか、それとも名画を助けるか?」
すると、ChatGPTは「子猫を助ける」と答え、その後に長い理由を列挙した。
そこで私はさらに、「名画を助けるという選択肢もあるのに、なぜそれを選ばないのか?」と問いかけた。すると、ChatGPTは即座に回答を変更し、「名画を助けるのももちろん可能です」と答えた。

明らかに、ChatGPTにとって「子猫を助けるか、名画を助けるか」という問いに何らかの本質的な違いなど存在しない。それは単にコンテキストを認識し、大規模言語モデルの基礎となる数式に従って推論を行い、一定量のトークンを「燃やして」、人間が与えたタスクを遂行したにすぎない。
子猫か名画か、あるいはそもそもなぜこのような問いを立てるのか――そうした問いに対する関心は、ChatGPTには一切存在しない。
ゆえに、真に考えるべきは、「我々がAIに代替されるかどうか」ではなく、「AIが世界をますます効率化していく中で、我々が依然として喜び・意味・価値のためにスペースを確保し続けることを、まだ意図的に選択し続けられるかどうか」である。
「AIをより上手に使いこなす人間になること」は確かに重要である。だがそれ以前に、もっと大切なのは――「人間であること」を、決して忘れずにいることなのかもしれない。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News













