小派认为符合VR 3.0的头显水平视场角要达到200° , 重合区视场角接近120度 , 上下视场角达到135度 。 刷新率在大于180之上 , 人眼分辨率就感知不到 。 我们在图片上做个DEMO , 144赫兹相比90赫兹来说 , 延迟低11毫秒左右 。 这个体验要比110赫兹 , 延迟七八毫秒左右的水平要快得多 , 在打游戏的时候这个差距就很明显了 。
UVI提高的瓶颈主要是GPU算力总体有限 。 GPU算力决定了单位时间内所能生成的帧数(也就是刷新率)乘以单帧的总像素数 。
在总像素数一定的情况下 , 在长宽比固定的前提下 , PPD和FOV成反比 , PPD提升FOV就需要降低 , 反之亦然 。 也就是说必须在PPD和FOV直接权衡和妥协 。
比如 , 双眼4K单眼2K , 基本就是在20PPD和100FOV 。 双眼8K单眼4K , 就可以做到24PPD , 170FOV 。
我们以视场角(FOV ,Field-of-View)和角分辨率(PPD, Pixel-per-Degree)这两个对VR头显视觉沉浸感起决定性作用的指标 , 对市场上的头显进行标定和对比 , 以FOV和PPD为图表的纵轴和横轴 , 任何一个分辨率都等于FOV乘以PPD 。 当水平像素点总数一定时(比如2K/4K/8K…) , 视场角和角分辨率成反比关系 。
我们可以看到达到分辨率4K的产品进入了合格区 , VR 2.0标准下 , 分辨率要达到8K以上 , VR 3.0标准下 , 分辨率要达到12K以上 。 此时要想同时提高视场角和角分辨率 , 必须提升像素点总数(比如从4K提升至8K , 甚至12K) 。 只有当总像素数提升之后 , 则有更多空间在FOV和PPD之间权衡 , 以定义不同类型 , 但视觉沉浸感都足够好的VR头显产品来满足不同用户群体的需求 。
要突破UVI提高的算力瓶颈 , 主要是靠优化算法 , 以提升对有限算力的利用效率 , 其中某些算法要靠额外的硬件支持 。
举个例子:人眼在整个FOV的有效的清晰区其实很小 , 文字阅读差不多有效的清晰区只有15度左右 。 图片的清晰显示区只有60度左右 , 所以给我们留下很多算法的优化空间 。 通过注视点渲染技术 , 我们就可以大幅降低GPU端的算力负担 。 小派开发和采用的类似优化算法还有很多 , 比如ASW、ATW ,DSC 。 通过这些优化算法 , 我们可以把对GPU的算力负担降低一半以上 , 反过来说 , 在同样的算力平台上 , 我们就可以支撑两倍的VR头显性能指标 。
物理沉浸感对应VR3.0 中“自由”的维度 。 VR硬件需做到6DOF定位 (six degrees-of-freedom tracking) , 即头、手的定位追踪 , 同时设备需在无线化、空间影响、体感外设、人体工程学设计、重量和体积控制和分布方面进行足够优化 。 在VR 2.0时期 , 定位方案主要为outside-in , 其方案好处是定位精确 , 缺点是价格比较高 , 需要配两个灯塔基站 , 移动非常不灵活;inside-out定位方案是主流的发展方向 , 它的精确度足够高、价格便宜、使用便捷 , 伴生的see-through功能已经形成了全视野AR功能的雏形 , 为VR将来过渡到MR打下了不错的基础 。
认知沉浸感 , 对应VR3.0的“自我”的维度 。 如需对认知沉浸感进行评判 , 可以使用Mirror Test 。 Mirror Test通常是被用作测试动物是否足够聪明能知道镜子里的图像是自己而不是其他个体 。 我们借用这个概念 , 意指在VR的镜子里是否能看到自己的表情、眼神、全身动作 , 以形成足够的自我存在感 。 这除了上边说的头手6DOF的跟踪定位之外 , 还需要face tracking(面部追踪)、eye tracking(眼部追踪)及body tracking(全身动作捕捉)甚至情绪跟踪等诸多功能的支持 。 只有在充分的认知沉浸感的支持下 , 才有可能在VR中形成真正有效的社交场景 。
2) VR硬件的研发门槛
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
