近日,谷歌揭晓了即将召开的 I/O 开发者大会详细议程,其中针对 Android XR 操作系统的开发者讲座安排,为即将到来的 Android XR 发布提供了关键线索。尽管谷歌在议程呈现上对 Android XR 的宣传力度并不大,但这些讲座却如暗藏的密码,透露出该系统未来发展的潜在轨迹。
自去年 12 月谷歌宣布推出 Android XR,并携手三星共同打造“Project Moohan”混合现实头显以来,Android XR 虽已进入公众视野,却始终保持着一种若即若离的神秘感。二者均预计在今年晚些时候正式亮相,然而至今仍未确定确切的发布日期。

谷歌虽已确认 Android XR 具备透视相机访问支持等部分功能,并面向开发者开放了 Android XR SDK,但面对 Meta Horizon OS 和苹果的 visionOS 等在 XR 领域已颇具影响力的成熟生态系统,Android XR 如何脱颖而出,仍是未知数。
谷歌 I/O 大会定于 5 月 20 日至 21 日举行,届时将进行多场主题演讲的直播。不过,与 Android XR 相关的两场开发者讲座却并未被纳入直播范畴,取而代之的是一场名为“Android 的最新动态”的直播,预计该直播中也会提及 Android XR 的相关进展。
倘若直播中未能透露更多关键信息,那么这两场开发者讲座无疑将成为大会的焦点,凸显出谷歌正通过进一步整合 XR 工具,致力于构建一个对开发者更为友好的 XR 生态系统,只是目前这一进程尚处于低调推进阶段。

从讲座内容来看,Android XR 正稳步迈向今年晚些时候的正式发布。谷歌正在紧锣密鼓地筹备全新的 XR 工具链,计划将 Jetpack SceneCore 和 ARCore 整合至 Jetpack XR 之中。目前,Jetpack XR 已面向开发者开放预览,它为移动端或大屏 Android 应用开发者赋予了通过 3D 模型和沉浸式环境创建空间布局的能力。尤为引人注目的是,Jetpack XR 包含了 ARCore,这表明谷歌正在积极整合其空间计算工具,旨在为开发者提供一套统一的构建 AR 和 VR 体验的解决方案。
此外,讲座还将着重探讨如何将 XR 功能融入现有应用。例如,3D 模型、手部追踪和立体视频等功能的添加,显示出 Android XR 的目标受众并非局限于游戏开发者。谷歌显然怀揣着更宏大的愿景,希望将 Android XR 推广至整个应用生态系统,让更多类型的应用都能受益于XR技术带来的创新体验。
在 UI 设计方面,谷歌计划将声明式 UI 工具包 Jetpack Compose 扩展至 XR 领域。这一举措意味着谷歌希望在移动设备、平板电脑和 XR 设备之间实现 UI 设计的标准化,使得 UI 能够更加便捷地在沉浸式环境中进行移植或适配,进一步提升开发者在不同设备上开发应用的效率与一致性。
第二场讲座则聚焦于 Android XR 中即将登场的 AI 功能,这无疑为 Android XR 的发展增添了更多想象空间。实时物体识别、场景理解或 AI 生成的环境等功能有望在不久的将来成为现实,为 Android XR 带来更强大的智能化体验。
尽管这两场讲座不会进行直播,这或许暗示着谷歌尚未准备好对 Android XR 进行大规模的宣传推广。但与此同时,业界也满怀期待,希望能够获取更多关于三星“Project Moohan”头显的消息,毕竟它极有可能是首款支持 Android XR 的头显设备,其表现将直接关系到 Android XR 在市场中的初步表现。
总体而言,谷歌 I/O 大会上关于 Android XR 的议程安排,虽未大张旗鼓,却处处透露出谷歌在 XR 领域的雄心壮志。随着工具链的整合与 AI 能力的逐步融入,Android XR 有望在未来为开发者与用户带来全新的体验,但如何在竞争激烈的 XR 市场中找准定位、突出重围,仍是谷歌需要面对的重大挑战。