随着发布Android XR SDK开发者预览版3,谷歌推出了两个新库来帮助开发者创建AI眼镜体验,分别是Jetpack Projected和Jetpack Compose Glimmer。ARCore for Jetpack XR也已扩展以支持AI眼镜,增加了运动跟踪和地理空间功能。
Android XR SDK开发者预览版3引入的新库允许开发者通过利用内置扬声器、摄像头和麦克风来扩展现有移动应用与AI眼镜的交互,并在眼镜显示屏上展示信息(如果有)。
在许多场景中,您的应用可能需要使用AI眼镜硬件。例如,视频会议应用可以添加一个UI控件,允许用户将视频流从手机摄像头切换到AI眼镜摄像头,提供第一人称视角。
第一个库,Jetpack Projected,使主设备(如安卓手机)能够投射应用的XR体验到AI眼镜上,使用音频和/或视频。该库允许应用检查目标设备是否有显示屏,并等待其可用。在应用访问设备硬件之前,必须根据标准安卓权限模型请求运行时权限。
您可以从AI眼镜活动和标准应用中访问AI眼镜硬件,前提是您获得有效的投射上下文。音频支持很简单,因为AI眼镜音频设备表现为标准蓝牙音频设备。
使用眼镜摄像头拍摄照片或视频稍微复杂一些,因为这需要实例化多个类来检查硬件可用性,进行设置,并将活动生命周期绑定到摄像头,以便它随活动状态打开和关闭。
另一方面,Jetpack Compose Glimmer是一组UI组件和视觉语言,用于在配备显示屏的AI眼镜上创建增强体验。新的视觉语言使用光学透视将视觉效果与环境融合,专注于清晰度、可读性和最小干扰。支持的组件包括文本、图标、标题芯片、卡片、列表和按钮。所有组件都建立在表面的基础概念上,开发者可以访问它来创建非标准组件。

Glimmer组件可以使用修饰符进行自定义,以调整布局、外观和行为,并可以沿z轴堆叠,通过使用阴影提供深度感。谷歌还在Android Studio中引入了AI眼镜模拟器,用于UI预览和模拟用户交互,包括触控板和语音输入。
关于最新的Android XR SDK版本的最后一点,谷歌扩展了ARCore for Jetpack XR,这是一组用于创建增强体验的API,包括检索平面数据、将内容锚定到空间中的固定位置等。最新版本增加了运动跟踪支持,使眼镜响应用户的移动,以及地理空间姿态,允许内容锚定到Google街景覆盖的位置。
Android XR SDK预览版3在升级到最新的模拟器版本(36.4.3 Canary或更高版本)后可在Android Studio Canary中使用。
