昨日苹果在 WWDC2023 上发布了全新头显 Vision Pro,一位曾负责开发 Vision Pro 苹果前员工 Sterling Crispin 昨日在推特上对外表示,Vision Pro 使用了大量神经科学来开发其一些关键功能。
Crispin 表示,“我在苹果公司的技术开发组担任神经技术原型研究员期间,用了我生命中的 10%时间来为 VisionPro 的开发做出贡献。这是我做过的单一项目中历时最长的一次。我为它的最终揭晓感到自豪和宽慰。我已经从事 AR 和 VR 的研究十年之久,从很多方面来说,这是整个行业的一个结晶。”
由于保密协议的限制,Crispin 不能透露太多细节,但有些内容已经通过专利公开。他介绍说,他在苹果的工作主要涉及到根据用户身体和大脑的数据,判断他们在沉浸式模式下的心理状态。“也就是说,当用户处于混合现实或虚拟现实的体验中,人工智能模型会尝试预测你是感到好奇、走神、害怕、专注、回忆过去的经历,还是其他一些认知状态。而这些状态可能通过眼动追踪、大脑电活动、心跳和节律、肌肉活动、大脑血液密度、血压、皮肤电导等测量得到。”他解释说。
为了实现这些具体的预测,他们使用了很多技巧,这些技巧都在几项提到他的专利中有所描述。例如他说,最酷的成果之一就是在用户点击某个东西之前就能预测出来,“你的瞳孔在你点击之前就会有反应,部分原因是你预期点击后会发生什么事情。所以你可以通过监测用户的眼睛行为,和实时调整用户界面,来创造更多这种预期性的瞳孔反应,从而通过眼睛创建一个粗略的脑机接口。这很酷,我宁愿选择这种方式,而不是进行侵入性的脑部手术。”他还将这个技术比作“读心术”。
此外,为了确定用户认知状态,系统还会向用户快速展示一些他们无法感知的视觉或声音信号。“另一项专利详细介绍了如何使用机器学习和身体和大脑的信号来预测你有多专注、放松或学习效果如何。然后根据这些状态更新虚拟环境。所以,想象一下一个能够根据你看到和听到的背景变化来帮助你学习、工作或放松的自适应沉浸式环境。”Sterling Crispin 说。
IT之家注意到,苹果称在开发这款头戴设备的过程中,创造了 5000 项新专利。苹果 Vision Pro 的主要目标不是让用户完全沉浸在虚拟现实中,而是通过将真实世界和数字世界结合起来扩展用户的可能性。