为你的VR游戏或应用添加触觉反馈可以实现真正自然的交互。但由于一直缺乏合适的工具,创建触觉体验一直十分具有挑战性。日前,Meta正式发布了实验性的Meta Haptics Studio和Haptics SDK for Unity。
据介绍,这两个新工具旨在帮助开发者快速设计、测试并将一流的触觉体验集成到VR游戏和应用中。Haptics SDK forUnity可以帮助你解决将高质量触觉反馈集成到体验中的常见挑战,而适用于Mac和Windows的桌面端应用Haptics Studio则允许你设计和试听触觉片段,然后片段可以通过Haptics SDK for Unity导出并在应用中播放。
快速、高质量的结果
Haptics Studio和Haptics SDK for Unity都是为快速获得结果而设计。要开始,请探索触觉库或通过内置的交互式教程学习触觉设计的基础知识。接下来,你可以将自己的触觉片段立即转换为触觉反馈。你同时可以批量导入文件,跨多个触觉片段工作,并使用创造性的分析参数快速迭代不同的变体。完成后,你可以使用批量导出保存所有触觉文件以进行集成。
通过即时测试减少迭代时间
Haptics Studio可以帮助你立即感受到你执行的所有编辑,从而帮助你减少迭代时间。你无需编写代码或构建应用来测试触觉。Haptics Studio对触觉片段的所有更新和更改都通过WiFi与配套VR应用同步。你无需每次改动都穿戴和摘下头显以测试触觉。
只需为当前和未来的MetaQuest设备编写一次
从Haptics Studio导出的触觉体验以跨硬件文件格式(.Haptic)保存。这意味着,触觉可以在任何当前(Meta Quest 2或Meta Quent Pro)或未来的Meta Quest控播放。这确保了触觉不需要重新设计或再次实现,并通过帮助确保用户使用Meta Quest设备获得最佳体验,在开发过程中节省你的时间。
Haptics SDK for Unity
Haptics SDK for Unity是专门为解决将触觉集成到Unity项目中的挑战而设计。它提供了一个High Level、灵活的API。你的Unity事件可以通过SDK API轻松触发触觉,如Play、Stop和Loop。触觉播放同时可以实时调制,例如使用幅度控制来动态改变触觉片段的强度。这允许你轻松地创建触觉变体,或根据不断变化的游戏环境(如玩家与物体的距离)来改变触觉的强度。
实验性的Meta Haptics Studio和Haptics SDK for Unity都已经发布。