快人一步,尽晓币圈事
2026-04-16 08:31
查看原文ChainThink 消息,4月16日,据动察Beating监测,英伟达发布Lyra 2.0开源框架,该框架可通过单张图片生成可探索的3D世界。用户上传一张照片后,Lyra 2.0会先生成受镜头轨迹控制的漫游视频,再将视频重建为3D高斯溅射(Gaussian Splats)和网格模型,可直接导入游戏引擎和仿真器进行实时渲染。
模型权重与代码以Apache 2.0许可证在Hugging Face和GitHub开源,允许商用。其核心技术突破在于解决长距离漫游的两个退化问题:一是“空间遗忘”,Lyra 2.0通过为每一帧维护3D几何信息,解决镜头折返时场景前后不一致的问题;二是“时间漂移”,通过自增强训练让模型学会纠错,避免逐帧累积误差导致场景变形。该框架底层基于万影Wan 2.1-14B扩散Transformer,输出分辨率为832×480。
Lyra 2.0的核心应用场景之一为机器人仿真,英伟达演示中将其生成的3D场景导入自家物理仿真器Isaac Sim,机器人可在其中完成导航与交互。此前具身智能训练的一大瓶颈是3D环境制作成本高、种类有限,Lyra 2.0提供了从照片批量生成训练环境的路径。相较于去年9月发布的Lyra 1.0,2.0版将生成范围扩展至长距离持续探索;谷歌此前发布的Genie 3具备类似能力但未开源,Lyra 2.0是目前该方向最完整的开源方案。
免责声明:含第三方意见,不构成财务建议






