普通手机 " 随手 " 拍的雕像,一下就变成了精细的三维重建图。
(资料图)
水杯来回动的动态场景下,细节清晰可见:
静态场景效果也同样 nice,狗狗突出的肋骨都被还原了出来:对比来看其他方法,效果是酱婶的……这就是英伟达最新提出的方法BundleSDF。这是一种可对未知物体的 6D 姿态追踪和三维重建的方法。
用于从单目 RGBD 视频序列中跟踪未知物体的 6 自由度运动,同时进行物体的隐式神经三维重建,方法接近于实时(10Hz)。
这种方法适用于任意刚性物体,即使视觉纹理大部分确实,仅需在第一帧中分割出物体,不需要任何额外的信息,并且不对智能体与物体的交互模式做任何假设。
目前,该方法已被CVPR 2023接收。
(论文具体内容可看下方视频介绍)
该方法的关键是一个神经物体场,它与姿态图优化过程同时进行,以便将信息稳健地累积到一致的 3D 表示中,捕捉几何和外观。
方法自动维护了一组动态的姿态内存帧,以便这些线程之间进行通信。
它能处理具有大幅度姿态变化、部分和完全遮挡、无纹理表面和高光反射等具有挑战性的视频。
作者展示了 HO3D、YCBInEOAT 和 BEHAVE 数据集上的结果,证明了我们的方法显著优于现有方法。
野外测试
用于 iPhone 12 Pro Max 的效果:
用于 Intel RealSense 的效果:该方法不仅适用于更具挑战性的动态场景,还适用于此前经常被考虑的静态场景(移动相机)。因此实现了比专门设计用于静态场景的那些方法更好或相当的结果(即文章开头展示动图)。
与 SOTA 对比HO3D 数据集上三种最具竞争力方法的定性比较。
左图:6 自由度姿态跟踪可视化,其中轮廓(青色)以估计的姿态渲染。
值得注意的是,如第二列所示,我们的预测姿态有时甚至会纠正 GT 的错误。
右图:每种方法输出的最终 3D 重建的正面和背面视图。
由于手部遮挡,视频中的某些部分永远不可见。虽然从相同的视角渲染网格,但是 DROID-SLAM 和 BundleTrack 的显著漂移导致网格错误旋转。
定量结果对比如下:问题设置给定一段单目 RGBD 输入视频以及仅在第一帧中目标物体的分割掩码,该方法能持续追踪物体的 6-DoF 姿态并重建物体的 3D 模型。
所有处理都是在线自回归的(没有假设未来帧可用)。
处理的物体是刚性的,但不依赖其特定丰富的纹理 - 方法适用于无纹理的物体。
此外,不需要物体的实例级 CAD 模型,也不需要物体类别的先验知识(例如事先对同一物体类别进行预训练)。
具体框架
首先,在连续的分割图像之间匹配特征,以获得粗略的姿态估计(第 3.1 节)。其中一些带姿态的帧被存储在内存池中,以便稍后使用和精化(第 3.2 节)。
从内存池的子集动态创建位姿图(第 3.3 节);在线优化与当前姿态一起联合细化图中的所有姿态。
然后,这些更新的姿态被存储回内存池中。
最后,内存池中的所有带姿态的帧用于学习神经物体场(在单独的线程中),该场建模了物体的几何和视觉纹理(第 3.4 节),同时调整其先前估计的姿态,使姿态跟踪更加鲁棒。
项目地址:
https://bundlesdf.github.io/
标签: