随着沉浸式内容和互动娱乐热度上升,虚拟世界在多人同时参与时如何做到“大家看到的是同一个世界”,成为生成式建模技术必须面对的难题。纽约大学研究团队近期公布的“Solaris”系统,试图从源头缓解多人场景中视角割裂、时空不连贯等问题:当虚拟世界发生变化,例如角色移动、物体放置或结构搭建时,系统不仅能推演发起者所见画面,还能同步推演处于其他位置的参与者会看到什么,让不同视角在空间关系和时间演化上尽量保持一致。
从一款沙盒游戏出发,纽约大学的这项研究指向一个更根本的问题——机器如何在复杂的多主体环境中,像人一样建立对世界的整体认知;技术边界并非终点,而是新问题的起点。随着虚拟世界建模精度不断逼近现实——人们有理由期待——对“全景观察”能力的探索,将在更广泛的现实应用中逐步落地并产生价值。