谷歌在人工智能领域的投入可谓巨大,而要真正理解其在虚拟助手领域的愿景,就不得不关注 Project Astra 项目。早在今年春季的谷歌 I/O 大会上,谷歌就展示了这款功能全面的多模态虚拟助手,并将其定位为用户生活中的“常伴助手”。虽然目前该技术仍处于“概念视频”和“早期原型”之间,但它代表了谷歌在人工智能领域最为雄心勃勃的尝试。
在 Astra 的演示中,一个反复出现的元素引起了人们的注意:眼镜。谷歌在智能穿戴设备领域已经耕耘多年,从GoogleGlass 到 Cardboard,再到两年前展示的 Project Iris 翻译眼镜,都展现了其在该领域的探索。今年早些时候,谷歌发言人 Jane Park 曾表示,这些眼镜只是“一个功能性的研究原型”。
然而,情况似乎有所变化。在 Gemini 2.0 发布前的媒体简报会上,谷歌 DeepMind 团队的产品经理 Bibo Xu 透露,“一小部分人将通过原型眼镜测试Project Astra,我们认为这是体验此类 AI 最强大、最直观的方式之一。”这部分测试人员将隶属于谷歌的 Trusted Tester 项目,该项目通常能够接触到这些早期原型,其中许多原型最终并不会公开发布。据悉,部分测试人员将通过安卓手机使用 Astra,而另一部分则通过眼镜进行体验。
在随后的问答环节中,针对有关眼镜的提问,Xu 表示“关于眼镜产品本身,我们很快将发布更多消息。”这虽然并不意味着谷歌智能眼镜即将上市,但这无疑表明,谷歌在 Project Astra 的硬件方面有所规划。
对于谷歌希望通过 Astra 实现的目标而言,智能眼镜是绝佳的载体。将音频、视频和显示屏结合在一起的最佳方式莫过于佩戴在面部的设备 —— 尤其是当目标是实现类似“常伴助手”的体验时。在一个展示 Astra 与 Gemini 2.0 协同工作能力的新视频中,测试人员使用 Astra 记住了公寓大楼的安保密码,查询了天气等等。其中一个场景是,他看到一辆巴士驶过,并询问 Astra“这辆巴士是否会带我到唐人街附近”。这些事情虽然都可以通过手机完成,但通过可穿戴设备进行操作显然更加自然。