本论文是由中国科学院打算技能研究所、加州大学圣芭芭拉分校和KIRI Innovations的研究职员互助完成。

三维重修是打算机图形学的经典任务,具有很强的利用代价。
近年来,诸如神经辐射场的隐式场方法 [1][2][3][4] 正成为重修任务广泛采取的表示。

这些方法能在不须要掩膜等额外输入的情形下,对具有漫反射和光滑反射的场景进行重修。
然而,对付具有折射或透明材质的,乃至涌现嵌套征象(即透明物体内部还有其他物体,内部物体也可以是透明的)的场景的重修,无论是隐式场方法还是传统方法都难以办理。

诚然,已经有一些工为难刁难透明物体的重修进行探索 [5][6][7],然而这些事情都不能重修嵌套物体,且他们须要额外的输入信息以减少透明物体的二义性,如掩膜或哀求场景在分外的背景下进行拍摄等。

ACM TOG|仅经由进程手机摄影就可以对透明物体进行三维重建

为办理此问题,中科院打算所高林老师团队、加州大学圣芭芭拉分校闫令琪教授、3D 重修公司 KIRI Innovations 互助提出了一种通过对嵌套透明物体进行重修的方法 NU-NERF《NU-NeRF: Neural Reconstruction of Nested Transparent Objects with Uncontrolled Capture Environment》[8]。

项目主页:http://geometrylearning.com/NU-NeRF/

该方法能在不须要额外输入,也不须要分外捕捉场景的情形下对嵌套透明物体进行重修。
该项研究事情已经被 ACM TOG 任命,并将在 SIGGRAPH Asia 2024 报告。

图 1 和图 2 即为 NU-NeRF 对实拍嵌套透明场景的重修效果展示。

视频加载中...

图 1. NU-NeRF 对实拍场景的重修和在新场景中的渲染

图 2. NU-NeRF 对实拍场景与合成场景的重修和在新场景中的渲染

研究目标

塑料、玻璃等透明材质这天常生活中最为常见的材质之一,然而这些材质的重修任务十分具有寻衅性。
其根本缘故原由是光芒在透明材质表面发生折射,从而产生高度不连续的表面颜色,且此颜色十分随意马虎和背景稠浊。

为办理此问题,已有事情的基本思路是对问题施加更多约束。
早期方法 [9] 施加约束的方法是利用分外的捕捉设备来捕捉光芒的偏振和光程等信息,并利用确定性的算法来进行重修。
也有基于打算机视觉和机器学习的方法 [6] 利用预先渲染的大量数据学习从图像中预测透明物体的方法。

近年来基于神经辐射场的方法 [10] 通过在物体后面放置一个具有已知图案的背景来直接得到光芒经由折射之后的精确位置,从而利用此先验设计丢失函数,进行重修。

然而这些施加约束的方法有两个限定:1)须要额外的捕捉设备、捕捉环境或输入信息(如掩膜等),无法让用户在随机的环境下进行拍摄重修;2)由于在利用先验的过程中假设了光芒在物体内部没有遭到遮挡和反射,并只经由两次折射,以是这些方法无法重修嵌套的物体。

针对以上问题,论文作者提出了 NU-NeRF 。
它是一种新的嵌套透明物体重修管线。
如图 3 所示,NU-NeRF 的输入因此不同视角拍摄同一包含嵌套透明物体的场景的图片,输出则是对该场景内部、外部几何的重修以及一定程度的解耦。
重修和解耦结果可以导入渲染软件中(如 Blender 等)进行重新渲染,实实际际物体的数字化。

图 3. NU-NeRF 对不同类型场景的内外重修和重渲染结果

研究方法

NU-NeRF 的管线由两步组成。
第一步的目标是重修外层几何。
外层几何的重修是至关主要的一步,由于它直接影响了第二步的内层几何质量。
其要办理的紧张问题便是上述的折射的二义性。

NU-NeRF 办理此问题的方法十分大略:分开建模透明表面的反射和折射。
对付其反射颜色进行准确建模,但对其折射颜色直策应用一个 MLP 网络进行预测。
这一策略的底层逻辑是,在重修过程中不须要准确建模折射颜色,只须要供应折半射的一个「均匀化」估计即可。

第二步的目标是利用重修得到的显式外层几何,在几何内部进行第二次重修。
这一步对外层几何进行了显式的光芒追踪,并对不同的外层几何类型(差异在于表面厚度是否可忽略)分别进行了建模。

NU-NeRF 的整体框架如图 4 所示。

图 4. NU-NeRF 方法示意图

外层几何重修和光照模型

如图 4 从左到右第二块所示,在外层几何的重修过程中,NU-NeRF 利用了神经渲染方法进行重修。
对付神经渲染过程中的每个采样点,采取了基于物理的渲染办法。
详细来说便是将表面反射的颜色分为反射和折射,并分别建模它们。

对付反射,NU-NeRF 参考了 NeRO [4] 的建模方法,利用 Split Sum 近似方法将传统渲染方程的光滑反射分为两个不同的积分 L 和 M:

L 和 M 两个积分分别对应光照和材质本身的性子。
个中 M 可以通过估量算得到,L 则通过网络预测得到。

在 NU-NeRF 中,除了神经渲染方法中常见的颜色丢失和 eikonal 丢失之外,还添加了一个丢失函数:ilc(入射光同等性,incident light consistency)丢失。

此丢失的来源是,NU-NeRF 会用一个神经辐射场来近似重修物体之外的场景(如物体放置的桌子,远景等),而入射光同等性丢失鼓励 L 中预测得到的光照和该神经辐射场的颜色同等,这样可以改进重修的质量。

如图 4 所示,对付某个采样点处来自方向 ω 的入射光,通过体渲染打算对应方向上的远景颜色,并利用 L2 丢失鼓励两者相等。

图 5. 入射光同等性丢失示意

对付折射,比较于此前方法繁芜的光芒追踪过程,NU-NeRF 采取了一个十分大略的策略:直策应用神经网络进行预测。

此神经网络的输入是采样点的坐标 p 和光芒方向 ω,输出是 RGB 颜色。
由于神经网络固有的低通滤波性子,其自然输出的便是一个「均匀化」的折射颜色。
实验结果表明,这个大略的策略能得到较好的结果。

第一步的重修结果样例如图 4 第二块下半部分所示,这一步能重修出准确的外层几何和光照,但由于折射的颜色是由网络直接预测的,以是较为模糊。
因此第一步重修结果是无法直接进行新视角合成的。
这便是减少二义性的「代价」。

显式光芒追踪和内层几何重修

如图 4 从左到右第三块所示,在重修得到外层几何之后,NU-NeRF 进行内层几何的重修。
这一步中,将第一步得到的外层几何从隐式场中提取成显式网格并固定。

对付每条神经渲染的采样光芒,先对其进行追踪得到和外层几何的交点,并利用折射定律(Snell 定律)打算出其折射到内部的方向。
在外层几何内部再进行真正的采样和渲染。
请把稳,在这个光芒追踪过程中,折射率是定义在外层几何上,并且通过网络预测得到的。
图 4 中也展示了学习得到的折射率可视化图像,可以看到学习到的折射率的同等性较高。

显式光芒追踪过程中对表面的建模

如上节所述,光芒追踪过程紧张涉及在外层几何表面处的折射打算。
然而,Snell 定律只适用于内、外层是两种不同材质的情形。

在现实中,可能涌现界面处有三种不同材质的情形,范例的例子便是容器。
塑料瓶、玻璃瓶这种容器壁和内、外层材质都不同,且「容器」这种物体在现实生活中十分常见,因此须要对这种情形进行更加细致的考虑。

图 6. NU-NeRF 阳光颜色先验

如图 6 所示,NU-NeRF 在进行表面建模时考虑了多种不同类型的材质。
图 6(a)中描述的便是常日 Snell 定律考虑的界面,其入射角和出射角的正弦比值为折射率比值倒数。

图 6(b)(b2) 中描述的是一种厚度可以忽略的容器材质,其入射和出射点的法线可以视为相同,因此其入射角和出射角的比值仅取决于内、外材质的折射率。

而图 6(c)中的场景为厚度不可忽略的容器,其入射点和出射点法线不同。
对付这种材质,NU-NeRF 利用球形来近似入射点和出射点的局部几何,球的半径由物体在此处的曲率决定。

末了,如图 6(d)所示,为了防止在一些角度,这种带有厚度的材质在物体边缘处涌如今容器壁内部多次折射的情形,NU-NeRF 用一个掩膜(mask)直接将边缘处的采样舍弃。

实验效果

为考验所提出的方法的有效性,NU-NeRF 在合成、实拍数据集上均进行了实验,个中合成数据集具有真值(ground truth),实拍数据集有一部分从网络上网络得到,因此没有真值。
重修实验的比拟方法是 [5] 和 [6] 两种已有方法。

重修

图 7 展示了不同方法重修合成场景的效果,可以看到之前的方法在没有嵌套几何时的表现较好,但在涌现嵌套几何以及不透明材质和透明材质稠浊场景时,会涌现较严重的性能低落。
图 8 图 9 展示了不同方法重修实拍场景的结果。
可以看到,NU-NeRF 在不同类型的场景上都能准确重修出外层几何,并较为准确的重修出内层几何,

图 7. NU-NeRF 在重修合成场景的内外几何上和现有方法比拟

图 8. NU-NeRF 在重修实拍场景(无真值)的内外几何上和现有方法比拟

图 9. NU-NeRF 在重修实拍场景(有真值)的内外几何上和现有方法比拟

总结与展望

NU-NeRF 的核心思想是将繁芜的嵌套透明物体重修问题大略化,并分为两步进行重修。
针对透明物体固有的二义性问题,NU-NeRF 不选择此前类似方法直接进行光芒追踪的方案,而是利用网络直接预测折射的颜色,这样在捐躯新视角合成准确性的条件下,提高了几何重修的准确性。

而有了外层几何的准确重修,就去除了问题中的大部分二义性,并可以利用显式光芒追踪来进行内层几何的重修。
同时,NU-NeRF 也针对容器类物体提出了一种折射打算的近似方案,能够在不过多降落运行速率的条件下进行较为繁芜的物体的重修。

参考文献

[1] Ben Mildenhall, Pratul P. Srinivasan, Matthew Tancik, Jonathan T. Barron, Ravi Ramamoorthi, and Ren Ng. NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis. Communications of the ACM. 65 (1): 99-106 (2021)

[2] Peng Wang, Lingjie Liu, Yuan Liu, Christian Theobalt, Taku Komura, and Wenping Wang. 2021. NeuS: Learning Neural Implicit Surfaces by Volume Rendering for Multi-view Reconstruction. arXiv preprint arXiv:2106.10689 (2021)

[3] Zhaoshuo Li, Thomas Müller, Alex Evans, Russell H Taylor, Mathias Unberath, Ming- Yu Liu, and Chen-Hsuan Lin. Neuralangelo: High-Fidelity Neural Surface Reconstruction. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition: 8456-8465 (2023)

[4] Yuan Liu, Peng Wang, Cheng Lin, Xiaoxiao Long, Jiepeng Wang, Lingjie Liu, Taku Komura, and WenpingWang. NeRO: Neural Geometry and BRDF Reconstruction of Reflective Objects from Multiview Images. ACM Transactions on Graphics (TOG). 42 (4): 1-22 (2023)

[5] Dongqing Wang, Tong Zhang, and Sabine Süsstrunk. NEMTO: Neural Environment Matting for Novel View and Relighting Synthesis of Transparent Objects. Proceedings of the IEEE/CVF International Conference on Computer Vision: 317-327 (2023)

[6] Zhengqin Li, Yu-Ying Yeh, and Manmohan Chandraker. Through the Looking Glass: Neural 3D Reconstruction of Transparent Shapes. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition: 1262-1271 (2020)

[7] Jiahui Lyu, Bojian Wu, Dani Lischinski, Daniel Cohen-Or, and Hui Huang. Differentiable refraction-tracing for mesh reconstruction of transparent objects. ACM Transactions on Graphics (TOG). 39 (6): 1-13 (2020)

[8] Jia-Mu Sun, Tong Wu, Ling-Qi Yan, and Lin Gao: NU-NeRF: Neural Reconstruction of Nested Transparent Objects with Uncontrolled Capture Environment. Accepted by ACM Transactions on Graphics (SIGGRAPH Asia 2024). 43 (6): 1-16 (2024)

[9] Cong Phuoc Huynh, Antonio Robles-Kelly, and Edwin R. Hancock. Shape and refractive index recovery from single-view polarisation images. 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE: 1229-1236 (2010)

[10] Zongcheng Li, Xiaoxiao Long, Yusen Wang, Tuo Cao, Wenping Wang, Fei Luo, and Chunxia Xiao. NeTO: Neural Reconstruction of Transparent Objects with Self-Occlusion Aware Refraction-Tracing. Proceedings of the IEEE/CVF International Conference on Computer Vision: 18547-18557 (2023)

[11]Jiaming Sun, Xi Chen, Qianqian Wang, Zhengqi Li, Hadar Averbuch-Elor, Xiaowei Zhou, and Noah Snavely. Neural 3D Reconstruction in the Wild. ACM SIGGRAPH 2022 conference proceedings: 1-9 (2022)