在周五的新闻摘要中,我们已经通知您,虽然索尼没有在 GDC 上举办针对 PlayStation VR2 的讲座或演示,但现场选定的开发人员可以 至少 尝试。 在这种情况下,特别引用了 Chet Faliszek – Valve 的资深人士,他签署了 Portal 或 Left 4 Dead 等游戏 – 目前正在参与 Anacrusis 团队活动。 他在推特上毫不掩饰自己的热情,并感谢了最有可能负责的吉田修平和格雷格赖斯。 此外,你可以猜想,GDC 的人们可以通过 PS VR2 尝试的游戏是 Moss: Book II,它将在后天发布,尽管目前当然是在第一代 PlayStation VR 上。 然而,我们并没有以 Faliszek 的印象结束,因为 GDC 的第二个更有趣的点是关于 Unity 及其在 VR 领域的使用的讲座,其中会提前提到 PS VR2 和潜在的新细节,这索尼还没有吹嘘过。 虽然最终结果并不多,但我们至少收到了确认,即先前经过验证的眼动追踪系统实际上会直接影响图像渲染。
今天在新的 PSVR2 hmd 上播放了其中一个 VR 时刻……
你知道当你回来时世界感觉不同吗?
太好了……谢谢 @yosp 和 @GregRicey 用于演示和聊天。
– 切特法利泽克 (@chetfaliszek) 2022 年 3 月 24 日
虽然没有讲座录音,但我们要感谢 Android Central 及其编辑 Michael Hicks 提供的信息。 在一篇简短的文章中,他总结了 Unity 的开发人员所接触到的内容,并提出了与上述眼动追踪相关的片段。 正如我们在年初提到的,当索尼详细介绍 PS VR2 规格时,预计索尼人不会希望使用这项技术只是为了更好地瞄准或与物体交互,而是为了更有效地渲染图像在玩家正在观看的地方。 这不是开创性的创新,但很高兴看到它在一个由 PlayStation 5 一致的硬件规范框架下的生态系统中,性能和结果得到了优化,如果没有这项技术,这是不可能的。 但更不用说总体而言,希克斯还带来了具体的数字,这些数字清楚地强调了眼动追踪在所谓的中心点渲染中的好处。
如果我们只讨论上面提到的渲染方法,即没有眼动追踪系统的参与,那么在流行的 VR Alchemy Lab 演示中,以下图像的渲染速度是渲染整个图像时的 2.5 倍。 如果您想知道如何实现优化,它基本上是在视野边缘模糊图像并减少图形细节。 玩家移动头部的那一刻,细节开始在一侧加载更多,而在另一侧消失在侧面模糊中。 但是,如果涉及眼动追踪,则以下图像的渲染速度提高了 3.6 倍,因为整个耳机可以更精确地确定要绘制的区域以及玩家当前没有看的区域。 此外,开发人员指出,眼动追踪当然也可以用于自我游戏,因为头戴设备会详细监控眼球运动、瞳孔直径和眨眼。
说到驱动程序,他们还应该通过触觉和自适应触发器为整体体验做出贡献,Unity 自然可以充分利用这些优势。
当然,如何使用这些功能完全取决于游戏的开发人员,但 Unity 的作者表示,他们可能会放大或缩小玩家当前正在观看的玩家,或者注册游戏如果你看狐狸游戏中的一个角色。 但这当然只是一个暗示和模糊的描述,完全在设计师的控制之下。 然而,精确瞄准或交互的可能性也很有趣,只要跟随一个特定的对象,然后按下控制器上的相应按钮就足够了。 这可以消除错误,例如,当您想以特定和标准的方式从一堆物品中取出一个时 – 即通过移动您的手 – 您没有成功。 说到驱动程序,他们还应该通过触觉和自适应触发器为整体体验做出贡献,Unity 自然可以充分利用这些优势。 最后一个有趣的部分是索尼对非对称多人游戏或沙发合作的开放态度,这应该可以通过 PS VR2 轻松访问。 据说开发人员能够确定哪个图像从虚拟相机传输到耳机以及哪个在电视上,因此一起玩应该尽可能舒适,最重要的是尽可能,不幸的是第一代没有发生这种情况 -即使在 PS4 性能方面。
但是,我们还不知道下一次 PS VR2 演示会何时举行,就像我们只能推测可能的发布日期一样。 但正如周末所提到的,索尼可能正在为本周的一些重大公告做准备,包括 PlayStation VR2。