科技魔方
  • AI文本
  • Neuralink演示活动暗示基于大脑意念的文本输入能力
    Neuralink演示活动暗示基于大脑意念的文本输入能力

    埃隆·马斯克在10月中旬曾表示,旗下Neuralink的Show & Tell演示活动将从原定的10月31日跳票至11月30日。现在,Neuralink通过Twitter公布了具体的时间计划:太平洋时间11月30日下午6时,亦即北京时间11月31日上午10时。

  • 映维网
  • 749 0
  • 利用NeRF 谷歌研究通过简单文本生成3D图像

    对于谷歌日前介绍的Dreamfusion,只需输入简单的文本提示,这个利用2D数据训练出来的模型可以为你生成相应的3D图像。

  • 映维网
  • 716 0
  • 谷歌新AI研究:基于图像分析模型和NeRF 可根据文本合成3D模型
    谷歌新AI研究:基于图像分析模型和NeRF 可根据文本合成3D模型

    利用DALL·E从文字合成图片相信大家已经比较熟悉,近年来类似的研究不少,比如Meta前不久公布的Make-A-Video研究,即利用AI才能够文本合成视频。近期,谷歌也公布了一项新的AI模型Dreamfusion,该模型的特点是将AI图像分析模型Imagen与NeRF(神经辐射场)结合,可根据文本来合成3D模型。

  • 青亭网
  • 650 0
  • 苹果专利分享:根据语音或文本媒体内容呈现AR/VR映射内容
    苹果专利分享:根据语音或文本媒体内容呈现AR/VR映射内容

    当你聆听音频或文本等媒体内容时,AR/VR沉浸式媒介的一个想象用例是用数字内容来进行叠加补充。例如,当你听到关于北京长城的音频或文本描述时,沉浸式设备可以在你的视场中呈现长城的数字画面。当你听到关于北京故宫的音频或文本描述时,沉浸式设备可以在你的视场中呈现故宫的数字画面。

  • 映维网
  • 624 0
  • Oculus展示一批全新UE4示例,涵盖移动机制、清晰文本、镜子、烘培、颜色分级等

    开发虚拟现实体验将是一次激动人心的冒险,但如果不知道从何开始,你可能会感动茫然生畏。代码示例可以帮助你完成旅程的第一步,特别是对于一个全新的知识空间,比如说XR。

  • 映维网
  • 375 0
  • 更多美军版HoloLens细节:80度FOV,8小时续航,文本翻译……

    美国陆军正在与微软合作为步兵开发混合现实头显,开发所谓的集成视觉增强系统(Integrated Visual Augmentation System;IVAS),而Business Insider日前在弗吉尼亚州的皮克特堡进行了体验。

  • 映维网
  • 360 0
  • AR/VR变革之下,Adobe XD提出无文本UI设计,通过语音、图像、动画提供清晰指令

    几乎所有主流应用程序和网站都严重依赖文本来向用户提供情景上下文。

  • 映维网
  • 506 0
  • Vivid Vision VR训练系统帮助斜视患者感知立体深度、阅读文本
    Vivid Vision VR训练系统帮助斜视患者感知立体深度、阅读文本

    詹姆斯·布拉哈(James Blaha)在小时候患有斜视,所以大脑开始忽视来自非优势眼的输入。这大大影响了他的视力,并且剥夺了他的深度感。

  • 腾讯科技
  • 314 0
  • 开发者将Google Lens AR文本翻译应用于VR场景中

    借助Google Lens,你只需将手机摄像头指向真实世界对象即可进行搜索,或者是进行文本翻译。

  • 映维网
  • 438 0
  • Mozilla推出Pathfinder,为AR/VR重构图像文本渲染,解决颗粒锯齿效果

    视频是用户在计算设备身上花费时间最多的用例,其次则主要用于阅读文本,以及浏览工具栏和程序用户界面中的矢量图形。

  • 映维网
  • 323 0
  • -------------没有了-------------

    图赏更多>