MENU

Google、ARグラスにGemini搭載・「AI Ultra」提供開始

目次

未来が透ける瞬間──Googleが描く“顔の前”の次世代UX

Google I/O 2025で最も拍手を集めたのは、新しい
Android XR ARグラスGeminiを組み込み、さらに最上位サブスク
Google AI Ultraを同時展開すると発表した場面でした。

スマホ越しではなく“視界そのもの”にAIが常駐する体験は、Glass以来の再挑戦。
今回は70°の広視野と外部スマホ連携で処理をオフロードし、重さも80g台に抑えたといいます。

GeminiをまとうARグラスの全貌

最大の特徴はマルチモーダル推論。レンズ越しに映るオブジェクト・テキスト・音声を同時に解析し、
表示レイヤーへリアルタイムでフィードバックします。

  • 視覚補助 : 商品の成分表や電車の時刻表を自動でハイライト
  • 旅行ガイド : 建造物を見れば年代やチケット情報をポップアップ
  • ライブ翻訳 : 看板の外国語を母国語へオーバーレイ

Gemini 2.5 Pro Deep Researchが裏で走り、100万トークン文脈を持つため会話が途切れません。

最上位サブスク「AI Ultra」は何が違う?

月額249.99ドル(日本では3万6,400円)と高額ですが、個人でも申し込めます。

  • Veo 3で1080p動画生成 & 上限12,500 AIクレジット
  • NotebookLM・Flow・Whiskでの最高利用枠
  • 新エージェントモードや2.5 Flashへの早期アクセス
  • 30TB Google Oneストレージ + YouTube Premium同梱

出典: Google 公式ブログ (2025-05-22)

日常・ビジネスでのユースケース

家庭ではレシピを見ながら手元をカメラが追い、Geminiが火加減を音声で指示。
通勤中はメール要約や資料作成をARグラス内で完結できます。

企業利用では現場作業が劇的に変わります。
製造ラインなら不具合をAIが検知して手順をARで指示、
医療では術中の患者データを視界下に固定表示。

開発者とパートナー企業へのインパクト

Android XR SDKは既にPreview公開。
WebXR+Gemini APIの組み合わせで、既存PWAを数行書き換えるだけでAR対応に。

Googleは「Agent Marketplace」を年末に開設予定。
個人開発者でもタスク自動化エージェントを配信し、Ultraユーザーへ収益化できる仕組みです。

プライバシーと社会的懸念

視界データを常時クラウド送信する点は批判も。
Googleはオンデバイス処理比率70%まで向上させ、顔認識はデフォルト無効と説明しますが、
公共空間での撮影ガイドライン策定は必須と言えるでしょう。

欧州GDPR準拠の匿名化プロセスを導入し、第三者検証レポートも公開予定と明言しています。

そしてまとめ──AIは“かける”時代へ

スマホの次を占うARグラス市場に、GoogleはGeminiとUltraという
“頭脳”と“燃料”を同時投入しました。

高価格ゆえマス普及には時間がかかるものの、

  • ハンドフリー
  • 超長文脈対話
  • 動画・音声を含む生成

といった強みは唯一無二。

2026年の量産モデルが出そろう頃、私たちの視界は今よりも賑やかで、
そして驚くほど自然にAIと会話しているかもしれません。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

コメント

コメントする

目次