近期美国专利及商标局公布了一批全新的AR/VR专利,以下是映维网的整理(详情请点击专利标题),一共16篇。更多专利披露请访问映维网专利板块https://patent.yivian.com/进行检索,也可加入映维网AR/VR专利交流微信群。
1. 《Microsoft Patent | Systems And Methods Of Increasing Pupil Size In A Display System(微软专利:增加显示系统出瞳大小的系统和方法)》
专利描述的视觉信息显示系统包括快速扫描镜,慢速扫描镜,以及光学定位在快速扫描镜和慢速扫描镜之间的变形中继光学器件。快速扫描镜在由光源提供的显示光线的扫描方向具有快速扫描弧。 慢速扫描镜在垂直于扫描方向的显示光线交叉扫描方向具有慢速扫描弧。变形中继光学器件配置为在交叉扫描方向放大显示光。
2. 《Microsoft Patent | Spatialized Haptic Device Force Feedback(微软专利:触觉反馈组件的空间力反馈)》
专利描述了一种用于控制一个或多个触觉组件的空间力反馈的方法,其包括:经由通信接口建立与一个或多个触觉组件的通信;实例化一个或多个虚拟触觉源;每个虚拟触觉源在虚拟环境中具有虚拟位置,并且配置为发出以一组触觉参数为特征的触觉信号;对于所述一个或多个触觉组件中的每一个,实例化在虚拟环境和转换逻辑中具有虚拟位置的虚拟触觉接收器。虚拟触觉接收器可以配置为从一个或多个虚拟触觉源中的每一个接收用于虚拟触觉源的触觉信号,根据转换逻辑将接收到的触觉信号转换为触觉组件指令。
3. 《Microsoft Patent | Gesture Recognition Techniques(微软专利:手势识别技术)》
在一个或多个实施例中,根据摄像头捕获的物理环境的一个或多个图像,并利用对应于物理环境对象的静态对象来生成静态几何模型。通过分析至少一个图像来识别动态对象与至少一个静态对象的交互,并且从所识别的交互中识别出手势。
4. 《Microsoft Patent | Virtual Reality Device With Varying Interactive Modes For Document Viewing And Editing(微软专利:具有用于文档查看和编辑的不同交互模式的虚拟现实设备)》
虚拟现实设备可以在应用容器级别显示视图帧中的当前模式视图,从而实现用于文档查看和编辑的不同交互模式;根据接收到概述命令触发,确定情景,包括当前模式视图位于应用容器级别;扩展到任务级别或概览级别的下一级视图;并且显示视图帧中的下一级视图。
5. 《Microsoft Patent | Virtual Object Movement(微软专利:虚拟对象移动)》
用于移动虚拟对象的方法包括,显示虚拟对象并根据用户输入移动虚拟对象。特别地,专利描述了一种用于当对象移动与障碍物移动约束冲突时移动虚拟对象的方法。当违反障碍物的移动约束时(如用户试图通过另一个对象移动虚拟对象),显示输入指示符和遵守移动约束的碰撞指示符。这可以帮助用户将虚拟对象移动到期望的位置。
6. 《Apple Patent | Electronic Devices With Optical Markers(苹果专利:具有光学标记的电子设备)》
电子设备可以配备光学标记。标记可以由涂层形成。涂层可以图案化并形成二维光学码,或者可以图案化并形成轮廓或其他可识别的标记结构,从而有助于提供关于电子设备的信息。具有深度传感器或其他传感器的设备可以采集关于电子设备及其标记的信息。所述信息可以包括关于由图像传感器捕获的图像的信息,同时来自深度传感器或其他光源的一个或多个光束可以照射的电子设备。标记可以配置为在混合现实系统中用作混合现实光学标记。对混合现实标记图像或其他传感器数据的分析可以说明关于设备类型,设备位置,设备大小,设备方向和其他信息的信息。
7. 《Qualcomm Patent | Apparatus And Method For Controlling An Augmented Reality Device(高通专利:用于控制增强现实设备的装置和方法)》
专利描述的装置检测眼睛在真实世界场景中的第一区域的注视位置;设置围绕第一区域的边界,所述边界排除现实世界场景中的至少第二区域;在边界内的第一区域执行对象识别过程,并且避免在至少第二区域执行对象识别过程。
8. 《Qualcomm Patent | Visual Search In Real World Using Optical See-Through Head Mounted Display With Augmented Reality And User Interaction Tracking(高通专利:利用具备增强现实功能和用户交互追踪功能的透视式头显来实现视觉搜索)》
专利描述了一种通过具有光学透视头戴式显示器的增强现实设备进行在线视觉搜索的方法。所述设备根据用户与头显的交互来识别头显视场中的对象的一部分。所述部分包括可搜索的内容,如条形码。用户交互可以是眼睛注视点或手势。系统追踪用户交互点并定位包括所述部分的对象区域,并且在所述区域内检测所述部分。所述设备捕获所述部分的图像。对象的识别部分不包含整个对象。 通过这样的方式,图像的尺寸小于视场对象的尺寸。接下来,所述设备将图像发送到视觉搜索引擎。
9. 《Sony Patent | Output Control Device, Output Control Method, And Program(索尼专利:输出控制组件,输出控制方法及程序)》
专利描述了一种输出控制组件,输出控制方法及程序。所述组件包括配置为根据状态点的变化控制输出信息输出的输出控制单元。专利描述的主要假设显示装置是佩戴在用户头部的头戴式显示器。
10. 《Sony Patent | Wearable Computer Using Programmed Local Tag(索尼专利:利用程序化本地标签的可穿戴计算机)》
专利描述的可穿戴计算设备包括头显。头显可以显示叠加在视场中的图像。当可穿戴计算设备确定目标设备在其环境内时,可穿戴计算设备从程序化本地标签中获取与目标设备有关的目标设备信息。目标设备信息可以包括,定义用于控制目标设备的虚拟控制界面的信息,以及在所述界面提供目标设备的限定区域的标识。可穿戴计算设备控制头显并将虚拟控制图像显示为叠加在限定区域的图像。
11. 《Sony Patent | Image Processing Apparatus And Image Processing Method(索尼专利:图像处理装置和图像处理方法)》
专利描述了一种图像处理装置和图像处理方法。所述方法可以利用全向图像并从预定视点生成高图像质量的纹理图像。绘制部分使用纹理图像和第一层的深度图像,并使用纹理图像和第二层的深度图像来预定视点生成显示图像。
12. 《Sony Patent | Display Control Apparatus, Electronic Equipment, Control Method Of Display Control Apparatus, And Program(索尼专利:显示控制装置,电子设备,显示控制装置的控制方法及程序)》
在用于合成多个帧的装置中,不产生显示内容的偏差,同时抑制帧速率的降低。每当预定同步信号的周期过去时,第一帧产生部分产生第一帧。第二帧生成部分生成预定数量的第二帧。在通过特定定时生成作为预定第二帧的当前帧时,合成部分合成当前帧和第一帧;在当前帧不是由特定定时生成时,合成部分首先合成第二帧。
13. 《AMD Patent | Method And System For Streaming Information In Wireless Virtual Reality(AMD专利:用于在无线虚拟现实中流失传输信息的方法和系统)》
专利描述了一种有效压缩和流失传输纹理空间渲染内容的方法和系统。解耦camera运动,对象运动/变形和阴影信息,然后根据需要压缩每种类型的信息并单独进行流式传输,同时考虑其对延迟的容忍度。
14. 《Nvidia Patent | Three-Dimensional (3d) Pose Estimation From A Monocular Camera(英伟达专利:单目摄像头的三维姿态估计)》
对于人际交互而言,根据2D图像估计对象的三维(3D)姿态十分有必要。手势可以由3D空间中的一组点表示,其称为关键点。两个坐标(x,y)表示空间位移,第三个坐标表示深度。单目摄像头用于捕获3D姿势图像,但不捕获深度信息。神经网络架构配置成为捕获图像中的每个关键点生成深度值。深度值的生成使得系统能够估计对象的3D姿态。
15. 《Intel Patent | Gesture Detection Using Color Segmentation(英特尔专利:利用颜色分割进行手势检测)》
在一些实施例中,专利描述的方法从视觉系统检测的第一图像中的检测窗口计算第一颜色度量值。 生成第二像素图像,其中像素包括满足第一颜色度量值的一个或多个第二颜色度量值。所述方法将第二图像与对象进行比较。当比较满足标准时,所述方法从第一模式转换到第二模式。当比较不满足标准时,所述方法继续以第一模式操作。
16. 《Intel Patent | System And Method For Close-Range Movement Tracking(英特尔专利:用于近距离运动追踪的系统和方法)》
专利描述了一种用于近距离对象追踪的系统和方法。利用深度传感器获取用户手部和手指或其他对象的近距离深度图像。利用从深度传感器获取的深度图像数据,识别和追踪用户手部和手指或其他对象的移动,从而允许用户通过手部和手指的位置和移动来与屏幕显示对象交互。