
Vision Proの次に、アップルがこっそりとスマートグラスを構想中
TechFlow厳選深潮セレクト

Vision Proの次に、アップルがこっそりとスマートグラスを構想中
AR+AIは、アップルにウェアラブル端末の新アイデアをもたらしたようだ。
執筆:木沐
発売されたばかりのVision Proが注目を集める中、Appleは新たなスマートグラスを開発しているとの報道が相次いでいる。Vision Proのようなヘッドマウントディスプレイとは異なり、新型グラスは「軽量性」を重視し、一日中快適に装着できる設計を目指している。
情報源として知られるブルームバーグの記者マーク・ガーマン氏は、カリフォルニア州クパチーノにあるAppleの研究施設で、Metaとレイバンが共同開発したスマートグラスに似た外観を持つデバイスの開発が進められていると報じている。このスマートグラスは音声出力に対応し、AIとカメラを活用して周囲の物体を認識する機能を持つという。
ガーマン氏は、ウェアラブル端末がAppleにとって新たな顧客獲得と成長促進の鍵になると指摘する。Vision Proの登場後、ARとAIの融合は、Appleが次世代ウェアラブル製品を開発する上での重要な方向性となりつつある。
AppleのスマートグラスはAR技術に重点か
Vision Proは発売直後から賛否両論の評価を受けている。
近い将来の4Kに匹敵する画質、優れたインタラクション性能、最高水準のMR(複合現実)体験――これらは初期ユーザーたちが称賛する主なポイントだ。しかし一方で、Vision Proは大型かつ重量があり、長時間の使用には不向きであることも明らかになっている。顔面に集中する重量は首への負担を大きくしている。
デバイスの重量バランスの悪さ、特に前方重心が最大の欠点となっている。そのような中、Vision Proのユーザーテスト期間に新たな動きが浮上した。すなわち、Appleが軽量モデルのスマートグラス開発を検討しているという情報だ。
Vision Proとは異なり、リーク情報によると、新製品のスマートグラスは「軽さ」を強調し、見た目は一般的な眼鏡と変わらない。機能面では、MetaのレイバンスマートグラスやAmazonのEcho Framesに類似している可能性がある。AppleのグラスはAirPodsを使わずとも音声再生が可能になり、AIとカメラを使って周囲の物体を識別することもできるだろう。
ブルームバーグのマーク・ガーマン氏の報道から読み取れるのは、Appleが構想するスマートグラスが、より純粋な拡張現実(AR)技術に基づいている点だ。
現時点では、このスマートグラスはAppleのハードウェアエンジニアリング部門による「技術調査」段階にある。ブルームバーグの分析によれば、Appleの昨年の売上高は全体的に低下しており、かつて好調だったウェアラブル事業さえも停滞している。そのため、Appleには何か新しい手を打つ必要があるのだ。
報道によると、レイバンスマートグラスの初代モデルは失敗に終わったものの、最新版の販売状況は予想を上回っている。消費者は徐々に、スマートグラスを使って動画撮影をしたり、音楽を再生したり、チャットボットに音声コマンドを送ったりすることに慣れ始めている。
すでにMetaはスマートグラスにAI機能を組み込む試みを進めているが、Appleもこれに追随する可能性が高い。その一例として、2023年以降、Appleは複数のスマートグラス関連の国際特許を出願している。例えば、「眼鏡システム」という名称の特許では、「将来的なスマートグラスが鼻の上に正しく装着され、位置が固定されることで、目の動き追跡システムやコンテンツ表示がユーザーに対して正確に提供される」仕組みについて記述されている。
また、ティム・クックCEO自身もGQのインタビューで、「デジタル世界のものを物理世界に重ね合わせることができ、この技術は人々のコミュニケーションやつながりを大幅に強化する。それによって、これまで不可能だったことを実現できる」と語っており、彼自身のARに対する考えを示している。クック氏は人々が現実世界から切り離されることを望んでおらず、AppleはむしろARを通じて人々の学び、交流、創造の方法を拡張したいと考えている。
MR機器であるVision Proは、まさにクック氏が掲げる「デジタル仮想と物理現実の融合」の理念を体現している。しかし、Vision Proが唯一あるいは最後の製品であるはずはない。iPhoneの後にiPadが生まれたように、Appleは現実と仮想をつなぐ新たなハードウェアを継続的に開発し、現実世界での利用価値をさらに高めていくだろう。
振り返れば、1973年に誕生した携帯電話「モーターローラ」以来、人類は掌サイズの機械を50年間にわたり身に着けてきた。人間と外界とのやり取りの形が再び変わるのも、決して驚くべきことではない。スマートグラスのようなウェアラブルデバイスは、まさに新たな手段・新たな形態の変革なのである。
AR+AIがスマートグラスの新分野を牽引
ARグラスの開発が進む一方で、2023年に大規模言語モデルを中心としたAI技術が世界的にブレークした。ウェアラブルデバイスとAIの統合は、自然な流れとなった。主要テック企業の多くが、特にスマートグラスを含むAI搭載ウェアラブル端末に注目している。
MetaはすでにRay-BanスマートグラスにAI機能を統合している。リアルタイムの言語翻訳機能に加え、ユーザーの目の前にある世界を音声で説明するAIアシスタントが特徴だ。例えば、服装のコーディネートを支援し、「どのシャツがどのパンツに合うか」を教えてくれるなどの使い方が可能になる。

MetaがRay-BanにAI音声アシスタントを追加
AmazonのAlexaチームもかつて「Echo Frames」というスマートオーディオグラスを開発していた。ただし、このデバイスは画面表示やカメラを備えておらず、各テンプル(耳にかける部分)に内蔵された4つの指向性スピーカーを通じてフィードバックを提供する。これにより、ユーザーは会話形式でスマートホームを操作したり、通知を受け取ったり、通話や音楽再生を行える。Echo Framesは周囲の環境に応じて音量やフィードバックを自動調整することも可能だ。
中国国内でも、Huaweiはスマートグラス市場に参入している。Huaweiスマートグラスは、外見を従来の眼鏡に極力近づけつつ、「スマートサポート」機能を完全にフレーム内部に隠蔽している。全天候型のインテリジェント音声ブロードキャストをサポートし、日々の重要なスケジュール、ニュース、天気などの情報を能動的に通知する。たとえば、飛行機や列車に乗車しているとき、フライト情報や列車の遅延などをすぐに音声で知らせてくれる。
見た目は単なるイヤホン付き眼鏡のように思えるが、本来のスマートグラスの役割は、人間とデジタル世界の距離をさらに縮めることであり、単なる音声アシスタントの代替ではなく、視覚能力を活かして現実を拡張するアプリケーションにこそ真価がある。
『メタバースデイリー』編集部のメンバーがスマートグラスの理想機能を想像する。「スーパーで買い物をしているとき、視界に価格比較が表示され、商品をスキャンすれば詳細情報が即座にわかる」「外国語の資料を読んでいるときに、リアルタイムで翻訳してくれる」「レストランの看板を見ると、評価やおすすめメニューが表示される」……
こうした実用的な機能と比べると、現行のスマートグラスは現実と仮想の接続能力においてまだ限界がある。いずれも「第二のスクリーン」を提供するにとどまったり、音声・オーディオインタラクションを強化するにとどまっている。ディスプレイ表示とAIの能力が十分に融合・連携して、最適な組み合わせ効果を発揮できていないのが現状だ。
スマートグラスの技術構成を詳しく分析すると、ARグラスは小型化と装着快適性を重視するため、プロセッサ、カメラ、バッテリーなどへのスペースが極めて限られている。さらに、AI大規模モデルはスマートデバイス向けに最適化された派生モデルが必要となる。また、AI機能を搭載するには、音声、画像、動画といったマルチモーダルデータを処理可能な専用チップも必要になるだろう。
しかし、こうしたウェアラブル向けの大規模モデルはすでに登場しつつある。関係者によると、OpenAIは最近、「GPT-4 with Vision」の物体認識ソフトウェアをSNS企業Snapの製品に組み込む作業を進めているという。これは、Snapのスマートグラス「Spectacles」に新たな機能をもたらす可能性がある。
次世代モバイル通信デバイスの変革を楽しみに待ちたい。それはもはや手で操作し、目で見、耳で聞くスマートフォンの形ではなく、視覚・聴覚・目の動き追跡技術を融合させたスマートグラスこそが、最も理想的な形だと考えられる。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News












