2種類のAIメガネを開発中
GoogleのAlphabetは12月8日、AI搭載スマートグラスの開発を進めていることを公式ブログで発表した。
開発中のモデルは2種類:
- ディスプレイ付きモデル: 視界に情報を表示
- 音声特化モデル: 音声アシスタントに特化
いずれもGemini AIを搭載し、2026年に発売予定としている。
Meta Ray-Banへの対抗
現在、AIスマートグラス市場ではMetaがRay-Banとのコラボモデルで先行している。Meta Ray-Ban Smart Glassesは、カメラとAIアシスタントを搭載し、ハンズフリーで情報を取得できる点が好評を博している。
GoogleはかつてGoogle Glass(2013年発表)でウェアラブル市場に参入したが、プライバシー懸念や高価格により一般普及には至らなかった。今回は過去の教訓を活かし、より実用的なアプローチで市場に再挑戦する。
Geminiのマルチモーダル能力を活用
GeminiはGoogleの最新マルチモーダルAIで、テキスト、画像、音声を統合的に理解できる。スマートグラスとの組み合わせにより:
- 目の前の物体を認識して情報を提供
- リアルタイム翻訳
- ナビゲーション案内
- ハンズフリーでの質問応答
などの機能が期待される。
2026年はAIウェアラブル元年に
AppleのVision Proに続き、各社がAIを活用したウェアラブルデバイスに注力している。2026年には、メガネ型デバイス市場で新たな競争が始まりそうだ。