← 毎週 AI ニュースに戻る

Weekly Briefing

2025-12 第3週 — Apple の「Liquid Glass」リアリティ、Siri 2.0 の遅延、そして環境マルチモーダリティの台頭

2025年12月20日

2025-12 第3週 — Apple の「Liquid Glass」リアリティ、Siri 2.0 の遅延、そして環境マルチモーダリティの台頭

2025年も終わりに近づき、テック巨頭たちはもはや「誰が最も賢いLLMを持っているか」ではなく、「誰が 『リアリティ・レイヤー(現実層)』 を支配するか」を競っています。

12月第3週には iOS 26.2 がリリースされ、インターフェースを動かすAIのように流動的な「リキッド・ガラス(Liquid Glass)」デザイン言語が導入されました。一方、Googleの Project Astra は研究室を飛び出し、現実世界のテスターの手に渡りました。これはすべてのスマートフォンのカメラを「知覚を持つ目」に変えることを目的としています。しかし、輝かしいアップデートの裏には、広がる「機能のギャップ」も存在します。AIがリアルタイムで私たちを見たり聞いたりできるようになった一方で、完全に自律した対話型のデジタルコンパニオンという夢の実現には、まだ数回のソフトウェアサイクルが必要であるという現実です。

今週のテーマ:AIは画面を越えて、私たちの感覚の中へと入り込んでいる。


🔹 iOS 26.2:「リキッド・ガラス」インターフェースと感覚型AI

出典: Apple Support 👉 セキュリティコンテンツ: https://support.apple.com/ja-jp/125884

👉 機能の概要: https://support.apple.com/ja-jp/121115

  • リキッド・ガラス・デザイン: Appleの新しいUI刷新である Liquid Glass が iOS 26.2 で正式にデビューしました。表情豊かなシームレスなトランジションに焦点を当てており、アプリのアイコンやコントロールがユーザーの環境や照明に合わせてダイナミックに変化します。
  • AirPods に「視覚」が加わる: 流出したコードや初期のアップデートから、AppleがAirPodsでの Visual Look Up(ビジュアルルックアップ) 対応を準備していることが示唆されています。これにより、ユーザーはiPhoneのカメラで物体やランドマークを識別しながら、その詳細を耳元でリアルタイムに聞くことができるようになります。
  • 統合されたインテリジェンス: メッセージやFaceTimeでの リアルタイム翻訳 などの機能が標準化されました。また、写真アプリには、生成AIを使用して不要なものを削除し、背景をほぼ完璧に再構築する高度な クリーンアップ(Clean Up) ツールが搭載されています。
  • プライバシー第一: 統合が深まっているにもかかわらず、Appleは Private Cloud Compute を推進し続けています。複雑なマルチモーダルリクエストであっても暗号化され、Apple社からも見えない状態が維持されます。

🔹 「Siri 2.0」の遅延:機能のギャップを埋める

出典: Macworld, Elyment 👉 分析: https://www.macworld.com/article/3008896/

👉 ロードマップの更新: https://elyment.com.au/blog/apple-intelligence-in-dec-2025

  • 待機は続く: iOS 19.2/26.2 では 「画面上の内容の把握(Contextual Screen Awareness)」 が導入されましたが、複数ターンの会話メモリやサードパーティ製アプリの深い操作機能を特徴とする「Siri 2.0」の完全な刷新は、正式に2026年初頭に延期されました。
  • ギャップ: 業界アナリストはこれを 「機能のギャップ(Feature Gap)」 と呼んでいます。GoogleのGeminiは現在、写真編集や複雑な推論タスクにおいてAppleのネイティブモデルを上回っていますが、Appleは、より時間をかけた統合度の高いロールアウトに賭けています。
  • 将来の統合: Appleは、Siriのより複雑なオフデバイスの推論用エンジンとして、カスタマイズ版の Gemini LLM を使用する 10億ドルの契約をGoogleと締結 中であると報じられています。

🔹 Google Project Astra:インターフェースとしての世界

出典: Google DeepMind, Tom’s Guide 👉 プロジェクト概要: https://deepmind.google/models/project-astra/

👉 リリーススケジュール: https://www.tomsguide.com/ai/what-is-project-astra

  • リアルタイム・マルチモーダリティ: Google DeepMind の Project Astra が、一部のテスター向けに Gemini Live への統合を開始しました。壊れたノートパソコンから珍しい熱帯魚まで、ユーザーがカメラを向けながら「これは何?」と尋ねると、遅延なく回答を得られます。
  • プロアクティブなエージェント: 従来のボットとは異なり、Astra は 行動インテリジェンス(Action Intelligence) を重視して設計されています。直感的に会話を開始し、過去のやり取りの重要な詳細を記憶し、スキャンしたメニューに基づいてレストランの予約をするといったアクションを実行できます。
  • リアルタイム翻訳の拡大: 12月13日時点で、Google翻訳は対応するヘッドフォンへ リアルタイム・オーディオ翻訳 を直接提供し始めており、現実世界での会話におけるユニバーサル翻訳機として機能しています。

🔹 今週のスナップショット:感覚の統合

  • 視覚 → Google Project Astra と Apple の Visual Intelligence が、カメラをAIの主要な入力手段に変える。
  • 聴覚 → リアルタイム・オーディオ翻訳と AI 強化された AirPods が、インターフェースを耳元へ。
  • 美学 → Liquid Glass デザインは、AI優先のOSに対応するための最初の大きな美的転換点となる。

🔹 開発者への2つのアドバイス

  • 「画面の把握(Screen Awareness)」を意識した設計を。 Appleが iOS 26.2 で 画面上の内容の把握 を推し進める中、アプリのインターフェースはOSレベルのAIにとってのデータソースとなります。アプリで標準的なアクセシビリティラベルが使用されていることを確認してください。エージェントがアプリの内容をより正確に「読み取る」ことができれば、SiriやGeminiの提案にあなたのアプリの機能が登場する可能性が高まります。

  • リアルタイム・ビジュアルAPIを試す。 ニッチなプロジェクト(ダイビングサイトのキーワードリサーチや自動サイト分析など)に取り組んでいる場合は、Google の Visual Interpreter 研究プロトタイプ をチェックしてください。AIがウェブサイトのレイアウトをリアルタイムで「見て」SEOの最適化を提案する能力は、もはやSFではなく、デベロッパープレビューとして存在しています。