
大手企業が参入を急ぎ、VCは資金を大量投入。 「AIで思考を読み取る」ために、企業間の激しい競争が続いている。
TechFlow厳選深潮セレクト

大手企業が参入を急ぎ、VCは資金を大量投入。 「AIで思考を読み取る」ために、企業間の激しい競争が続いている。
AIが人間を颠覆する第一歩:人間の心を読むこと。
執筆:Lexie
編集:Lu

AIに関する大きな議論の中で、人々はAIに「最も頼れる効率的なアシスタント」という役割を与えるか、「人類を覆すマシン軍団」という敵対的役割を与えるかのいずれかであり、味方であろうと敵であろうと、AIには人間が指示したタスクを遂行するだけでなく、「人間の心を読む」能力も求められています。この「心を読む力」こそ、今年のAI分野における最大の注目点です。
PitchBookが今年発表した企業向けSaaS新興技術レポートでは、「感情AI(Emotion AI)」が主要な技術的ハイライトとなっています。これは感情計算(Affective Computing)と人工知能技術を用いて、人間の感情を感知・理解し、感情に基づいた相互作用を行うことを目的としています。文字、表情、声、その他の生理的信号を分析することで人間の感情状態を理解しようとするものであり、簡単に言えば、感情AIとは機械が人間のように、あるいはそれ以上に感情を「読み取る」ことを目指しているのです。
その主な技術は以下の通りです。
-
表情分析:カメラ、コンピュータービジョンおよびディープラーニングを用い、微細な表情や顔面筋肉の動きを検出します。
-
音声分析:声紋、トーン、リズムから感情状態を識別します。
-
テキスト分析:自然言語処理(NLP)技術を活用して文脈と言葉の意味を解釈します。
-
生理信号モニタリング:ウェアラブルデバイスを用いて心拍数や皮膚反応などを分析し、よりパーソナライズされ、感情豊かなインタラクションを実現します。

Emotion AI
感情AIの前身は感情分析技術であり、主にテキストベースのやり取りを通じてユーザーの感情を分析・抽出するものでした。たとえばソーシャルメディア上で投稿された文章から感情を分析するといった用途です。しかしAI技術の進展により、視覚情報や音声など複数の入力方法が統合され、感情AIはより正確かつ包括的な感情分析を可能にしています。
01 VCが資金投入、スタートアップが巨額の資金調達
TechFlowの観測によると、感情AIの潜在的可能性は多くの投資家の関心を集めています。UniphoreやMorphCastなど、この分野に特化したスタートアップ企業のいくつかはすでに大きな投資を受けているのです。
カリフォルニア発のUniphoreは2008年から企業向け対話自動化ソリューションの開発を続けており、U-Self Serve、U-Assist、U-Capture、U-Analyzeなどの製品ラインをすでに構築しています。これらの製品は音声、テキスト、映像、感情AI技術を駆使し、顧客とのよりパーソナライズされ、感情豊かなインタラクションを支援します。U-Self Serveは会話中の感情やトーンを正確に識別し、企業がより個別化されたサービスを提供できるようにすることで、ユーザーの満足度と参加意欲を高めます。

U-Self Serve
U-Assistはリアルタイムでのサポートとワークフローの自動化によって、カスタマーサポート担当者の作業効率を向上させます。U-Captureは自動化された感情データの収集と分析により、企業が顧客のニーズや満足度について深い洞察を得られるようにします。一方、U-Analyzeはインタラクション中の重要な傾向や感情の変化を特定し、ブランドロイヤルティ強化のためのデータドリブンな意思決定を支援します。
Uniphoreの技術は単に言語を理解するだけではなく、人間とのやり取りにおいて、トーンや表情の裏にある感情を捉え、解釈することを目指しています。この能力により、企業は顧客とのやり取りを機械的な対応に留めることなく、顧客の感情的ニーズに真に応えることが可能になります。実際にUniphoreを利用することで、企業の顧客満足度は87%に達し、カスタマーサポートのパフォーマンスは30%向上しています。
Uniphoreはこれまでに累計6.2億ドル以上の資金調達を完了しており、直近の2022年にはNEAが主導する4億ドルの資金調達を実施しました。March Capitalなどの既存投資家も参加し、このラウンド後の評価額は25億ドルに達しています。

Uniphore
Hume AIは、世界初の共感能力を持つ音声AIを開発しました。元Googleの科学者であるAlan Cowenが創業した同社は、「意味空間理論(Semantic Space Theory)」の開拓者として知られています。この理論は、声や表情、身振りの微妙な違いを通じて感情体験と表現を理解するもので、Cowenの研究は『Nature』や『Trends in Cognitive Sciences』など多数の学術誌に掲載されており、これまでに研究された中で最も広範で多様な感情サンプルを含んでいます。
こうした研究に基づきHumeは、対話型音声API「EVI」を開発しました。これは大規模言語モデル(LLM)と共感アルゴリズムを組み合わせており、人間の感情状態を深く理解・解析することが可能です。EVIは音声中の感情を識別するだけでなく、ユーザーとのやり取りにおいてより繊細でパーソナライズされた反応を示すことができます。開発者はわずか数行のコードでこの機能をアプリケーションに組み込むことが可能です。

Hume AI
現在の多くのAIシステムの制限の一つは、指示がすべて人間によって与えられることにあります。このような指示やプロンプトは誤りやすく、AIの潜在能力を十分に引き出すことはできません。これに対してHumeが開発した共感型大規模言語モデル(eLLM)は、文脈やユーザーの感情表現に応じて語彙やトーンを調整し、人間の幸福感を第一原則として機械学習、調整、相互作用を行います。この技術は、メンタルヘルス、教育訓練、緊急通報、ブランド分析など、さまざまなシーンでより自然で本物らしい体験を提供します。
今年3月、Hume AIはEQT Venturesが主導する5000万ドルのシリーズB資金調達を完了しました。投資にはUnion Square Ventures、Nat Friedman & Daniel Gross、Metaplanet、Northwell Holdingsなどの機関も参加しています。
この分野にはまた、消費者の認知と感情反応を測定する専門企業Entropikもあります。「Decode」という機能を通じて、感情AI、行動AI、生成AI、予測AIを統合的に活用し、消費者の行動や好みをより深く理解することで、よりパーソナライズされたマーケティング提言を提供しています。Entropikは2023年2月にSIG Venture CapitalやBessemer Venture Partnersらから2500万ドルのシリーズB資金を調達しました。

Entropik
02 大手企業参入、激しい競争へ
大手テック企業も自社の優位性を活かして、感情AI分野に積極的に参入しています。
Microsoft AzureのCognitive Servicesに含まれる感情APIは、顔の表情や感情を分析することで、画像や動画内の喜び、怒り、悲しみ、驚きなどの感情を識別できます。
IBM WatsonのNatural Language Understanding APIは大量のテキストデータを処理し、ポジティブ、ネガティブ、ニュートラルといった感情の傾向を識別することで、ユーザーの意図をより正確に解釈します。
Google Cloud AIのCloud Vision APIは強力な画像分析機能を持ち、画像内の感情表現を迅速に認識でき、さらにテキスト認識と感情との関連付けも可能です。
AWSのRekognitionも感情の検出、顔の特徴識別、表情の追跡が可能で、他のAWSサービスと連携することで、ソーシャルメディア分析や感情AI駆動のマーケティングアプリケーションとして完全なソリューションを提供できます。

Cloud Vision API
感情AI分野では、一部のスタートアップが技術開発のスピードが非常に速く、大手企業が人材獲得のために「スカウト」に出るほどです。たとえばユニコーン企業Inflection AIは、投資家であるマイクロソフトからそのAIチームとモデルに強い関心を持たれました。マイクロソフトはBill Gates、Eric Schmidt、NVIDIAなどとともにInflection AIに13億ドルを投資した後、AI分野のリーダーでありInflection AIの共同創設者の一人であるMustafa Suleymanに接触。その後、Suleymanをはじめとする70名以上の従業員がマイクロソフトに移籍しました。これに対してマイクロソフトは約6.5億ドルを支払ったとされています。
しかしInflection AIはすぐに再編成を行い、Google翻訳、AIコンサルティング、ARなど異なるバックグラウンドを持つ新しいチームを結成し、コア製品「Pi」の開発を継続しています。Piはユーザーの感情を理解し、それに応えることができるパーソナルアシスタントです。従来のAIとは異なり、Piはユーザーとの感情的つながりを重視しており、音声やテキストの入力を分析して感情を感知し、対話の中で共感を示します。Inflection AIはPiを単なるAIアシスタントではなく、「コーチ」「親友」「傾聴者」「クリエイティブパートナー」と位置づけています。またPiは強力な記憶機能を持っており、ユーザーとの過去の複数回の会話を記憶することで、インタラクションの連続性とパーソナライズされた体験を高めます。

Inflection AI Pi
03 成長の道のり、期待と懸念が共存
感情AIは、より人間らしいやり取りへの期待を象徴していますが、他のAI技術と同様、その普及には注目と疑問が常に伴います。まず第一に、感情AIは本当に人間の感情を正確に解釈できるのでしょうか?理論的には、この技術によりサービスやデバイスの体験がより豊かになる可能性があります。しかし現実的には、人間の感情は本質的に曖昧で主観的です。すでに2019年には、研究者たちがこの技術に疑問を呈しており、顔の表情は人間の真の感情を信頼ably反映しないと指摘しています。そのため、機械が単に人の表情、姿勢、声のトーンを模倣して感情を理解しようとしても、限界があると言えます。
第二に、厳格な規制もAI技術の発展における障壁となっています。たとえばEUのAI法案は、教育などの分野でコンピュータービジョンによる感情検出システムの使用を禁止しており、これにより特定の感情AIソリューションの展開が制限される可能性があります。アメリカのイリノイ州などでは、許可なく生体認証データを収集することを禁じる法律があり、感情AIの技術利用の前提そのものが直接的に制限されることになります。さらに、データのプライバシーと保護も重大な課題です。感情AIは教育、医療、保険など、データのプライバシーが特に重要視される分野で多く利用されるため、感情データの安全かつ合法的な取り扱いは、すべての感情AI企業が直面する必須のテーマです。
第三に、異なる文化・地域の人々の間でのコミュニケーションや感情解釈はもともと難しい問題ですが、AIにとってはさらに大きな試練です。たとえば、地域ごとに感情の理解や表現方法が異なるため、感情AIシステムの有効性や包括性に影響を与える可能性があります。また、感情AIは人種、性別、ジェンダー・アイデンティティに関するバイアスの処理においても、大きな困難に直面するでしょう。
感情AIは人的負担の軽減という効率性だけでなく、「人間の心を読む」配慮も約束しています。しかし、それが本当に人間の相互作用における万能の解決策となるのか、それともSiriと大差ないスマートアシスタントに留まり、真の感情理解を要する場面では平凡な結果に終わってしまうのかは不透明です。将来的には、AIの「読心術」が人間と機械、さらには人間同士の関係性までも変革するかもしれません。しかし少なくとも現時点では、人間の感情を真に理解し、適切に応えることには、依然として人間の関与と慎重さが必要なのかもしれません。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News












