Appleは、AI技術を活用したスマートグラスの開発を進めており、2027年の発売を目指していると報じられています。このデバイスは、周囲の環境を分析し、ユーザーに情報を提供することを目的としています。ただし、現時点では開発初期段階にあり、正式な発表や発売までには時間がかかる見込みです。
Appleのスマートグラスは、MetaのRay-Ban Storiesのような既存の製品と似た機能を持つと予想されています。具体的には、カメラ、マイク、スピーカーを内蔵し、AIによる音声アシスタント機能を備える可能性があります。しかし、Appleはプライバシーへの配慮から、写真撮影機能の搭載について慎重に検討しているとされています。
このスマートグラスは、Appleの「Apple Intelligence」戦略の一環として位置づけられています。iPhone 16で導入された「Visual Intelligence」機能は、カメラを通じてオブジェクトを認識し、関連情報を提供するものであり、将来的にはスマートグラスにも応用されると見られています。
Appleは、Vision Proヘッドセットの開発を通じて得た技術や知見を、スマートグラスの開発にも活用していると考えられます。Vision Proは、空間コンピューティングを実現するデバイスであり、スマートグラスの軽量化や日常利用に向けた技術的基盤となる可能性があります。
競合他社もスマートグラス市場への参入を進めており、Metaは高機能なスマートグラスの開発を進め、2025年10月の発売を目指していると報じられています。また、GoogleやSamsungも独自のスマートグラスの開発を進めており、今後数年間で市場競争が激化することが予想されます。
Appleのスマートグラスは、iPhoneやAirPodsと連携し、日常生活の中でシームレスに情報を取得・活用できるデバイスとして期待されています。ただし、現時点では具体的な仕様や価格、発売時期などの詳細は明らかにされておらず、今後の公式発表が待たれます。
AI搭載スマートグラスとは?
AI搭載スマートグラスは、人工知能技術を活用して、ユーザーの視界に情報を重ねて表示するウェアラブルデバイスです。主な特徴としては、以下のような機能が挙げられます。
- 音声アシスタント機能:音声コマンドにより、情報検索やデバイス操作が可能。
- 視覚情報の提供:カメラやセンサーを通じて、周囲の環境を認識し、関連情報を表示。
- リアルタイム翻訳:外国語の看板や会話を翻訳し、視界に表示。
- ナビゲーション:目的地までの道順や交通情報を視界に重ねて表示。
これらの機能により、ユーザーはスマートフォンを取り出すことなく、必要な情報を即座に取得できるようになります。今後、AI技術の進化とともに、スマートグラスの活用範囲はさらに広がると期待されています。