Google Glass。Google Cardboard。Google Daydream。
同社はVRとXRに十分な挑戦をしてきた――それは疑いようもない。Android XRは、GoogleがVRとXRに再び参入するための最新の試みであり、今回はビジョンが全く異なる。
おすすめ動画
まず、Gemini AIがOSの中核を担い、同社のAIがより幅広いユーザーやユースケースに届くことを保証します。さらに、その名の通り、スマートフォンで成功を収めてきたのと同じカテゴリーにXRデバイスを位置づけようとする試みでもあります。
Googleはカリフォルニア州マウンテンビューにあるキャンパスに私を招待し、Android XRを実際に試用させてくれました。ハードウェアは未発表のプロトタイプでしたが、フォームファクタに関わらず、ソフトウェアプラットフォームとしてのAndroid XRが中心でした。驚いたことに、2025年のこのテクノロジーの未来に、私は大きな期待を抱いて帰りました。
サムスンのProject Moohan VRヘッドセット

Samsung製のProject Moohan VRヘッドセットを装着した後、ゴーグル内で最適な映像の鮮明さを得るために、瞳孔間距離(IPD)を簡単に測定する手順を踏んでみました。それ以外は、何も調整することなくすぐに使用できました。
レンズの品質とパススルーカメラの忠実度、そして画面上の要素の組み合わせに、私はすぐに感銘を受けました。これほどまでに鮮明でシャープなVR映像を目にしたことはありませんでした。周囲の景色もはっきりと見え、安心感も得られ、よりリアルな体験を味わえました。
ある時、Chromeブラウザで鳥に出会いました。クリックすると「3D表示」できました。GoogleのARCoreとAR検索に関する取り組みはすべて、Android XRでネイティブサポートされています。目に飛び込んできた画像の鮮明さと忠実度、そしてそれが部屋の奥行き情報とどのように相互作用するかに、私は完全に驚嘆しました。
このヘッドセットについてはまだよく分かりませんが、明らかに Apple Vision Pro の直接の競合製品となり、最高の VR ヘッドセットの地位を確保することを目指しています。

デモルームを歩きながら、空中で指を使って「Circle to Search」を起動し、吊り下げられた植物に部分的に隠れているドーナツ型のおもちゃの周りに円を描きました。障害物があってもプロセスは問題なく進み、おもちゃを買える場所をいくつか案内されました。Circle to Searchの大ファンである私にとって、この新たな次元は本当に感動的でした。
Android XRにおける多様な操作性は、繰り返し強調されたハイライトでした。手による操作は、HarmonyOSで仮想オブジェクトのクリック、伸縮、移動を体験したものと一致していました。Bluetoothキーボードとマウスを備えた物理的なデスクでは、入力デバイスを瞬時に切り替えられる操作を体験できました。
VRヘッドセットの側面をタップすると、Geminiが起動し、音声コマンドと操作が可能になります。私にとって最も興味深かったのは、おそらく視線追跡機能でしょう。これは、開始時に独自のキャリブレーションプロセスを必要とします。視線がオブジェクトに当たるとハイライト表示され、リラックスした人差し指と親指でピンチするとクリック音が鳴ります。これまで視線追跡による操作を経験したことがなかったので、この機能の可能性に非常に興奮しました。

もう一つのハイライトは、平面映像の効果的な空間化で、いくつかの重要な方法で実演されました。Googleフォトでは、ライブラリの写真や動画がAIによって生成された驚異的な奥行き感で表示され、私の目には、それがそもそも空間的なものではないとはほとんど分かりませんでした。Googleマップのデモでは、ストリートビューを使ったバーチャルツアーでレストランの中を見学しました。映像は数年前に撮影されたもので、奥行き情報は一切ありませんでしたが、部屋の真ん中に立つと、新たに空間化されたプレゼンテーションのおかげで、まるでそこにいるかのような感覚が得られました。
Google Glassを超えて

Android XRは、ハードウェアの性能に応じてUIと機能を適応させるように設計されています。ヘッドセットでは没入感あふれる体験を、メガネのような小型デバイスではより集中的で洗練されたインターフェースを利用できます。さらに、軽量デバイスでは、スプリットコンピューティング構成を通じて、接続されたスマートフォンに処理負荷をオフロードできます。これにより、センサーデータはスマートフォンに送信され、処理された後、ピクセルがメガネにストリーミングされて表示されます。
そのために、Google I/O 2024で披露されたフレームを彷彿とさせる黒フレームのメガネを渡されました。顔にぴったりフィットし、すぐに右目の中央に鮮明なフルカラー画像が映し出されました。そこには、部屋にあるPixelデバイスのカレンダーアプリの予定が表示されていました。Googleマップからメガネに道順がテキストで表示され、頭を下に傾けると地図上に現在地の視覚的な情報が表示されました。Google Glass発売当初に受け取った一人として、これはまさにあのビジョンの進化だと感じました。

次に、今年のGoogle I/OでもデモされたGeminiのマルチモーダル版、Project Astraを起動しました。単眼鏡フレームの側面にあるボタンを押すと、Geminiが「ヘイ」と話しかけ、私は部屋中の物について質問し始めました。ある時、Geminiはテーブルの上に置かれた酒瓶をいくつか集めてどんな飲み物を作れるか教えてくれました。
デモの後半で、先ほどのボトルの隣に置いてあった本のタイトルをGeminiに尋ねると、詳細な情報をすべて教えてくれました。手に持っていたアルバムの曲をプレビューしたり、棚から取り出した本のページを要約したりもしました。体験全体を通して、応答時間の遅れが目立ちましたが、これはプロトタイプであり、開発中であることを改めて念を押しました。
最後に、両眼ディスプレイ付きのメガネの簡単なデモンストレーションを受け、目の中心に鮮明な 3D 画像が表示されました。
このメガネの高密度ディスプレイを駆動したのは、RaxiumのMicroLED技術です。これは、R、G、BのマイクロLEDを同一基板上にモノリシックに形成したマイクロLEDです。この技術により、コンパクトなサイズでありながら、高い輝度、効率、解像度を実現しています。プロジェクターシステムはフレームのショルダー部に配置され、導波管がレンズ内のターゲット領域に光を導き、その光を目に反射させます。
もう一度挑戦する

これらはすべて非常にエキサイティングです。しかし、忘れてはならないのは、これはGoogleが拡張現実プラットフォームを成功させようとした最初の試みではないということです。Googleが初めてGoogle Glassを市場に投入したのは10年ちょっと前で、発売当初は注目を集めたものの、最終的にはフレームに埋め込まれたウェアラブルカメラのプライバシーへの影響を懸念する人々から激しい反発を受けました。Daydream VRは、GoogleがAndroidスマートフォンで仮想現実を実現しようとした最初の試みでしたが、Googleは発売から3年後の2019年にそのハードウェアを廃止しました。こうした経緯を踏まえ、私は期待を少しでも抑えようと努めました。
しかし、Android XRに興奮しなかったとしたら嘘になります。これは、将来的にヘッドセット、グラス、その他のフォームファクターに対応できるOSを開発するという、Googleの新たなコミットメントを表しています。Metaが既にHorizon OSエコシステムをオープン化する計画を発表していることからも、来年はXRヘッドセットの爆発的な普及が見込まれそうです。
Googleは成功できるだろうか?それはまだ分からない。しかし、これまでの状況から判断すると、私は楽観的だ。