机器之心报道
编辑:张倩
没有了神经网络,辐射场(RadianceFields)也能达到和神经辐射场(NeuralRadianceFields,NeRFs)相同的效果,但收敛速度快了多倍。
年,加州大学伯克利分校、谷歌、加州大学圣地亚哥分校的研究者提出了一种名为「NeRF」的2D图像转3D模型,可以利用少数几张静态图像生成多视角的逼真3D图像。其改进版模型NeRF-W(NeRFintheWild)还可以适应充满光线变化以及遮挡的户外环境,分分钟生成3D旅游观光大片。
NeRF模型demo。
NeRF-W模型demo。
然而,这些惊艳的效果是非常消耗算力的:每帧图要渲染30秒,模型用单个GPU要训练一天。因此,后续的多篇论文都在算力成本方面进行了改进,尤其是渲染方面。但是,模型的训练成本并没有显著降低,使用单个GPU训练仍然需要花费数小时,这成为限制其落地的一大瓶颈。
在一篇新论文中,来自加州大学伯克利分校的研究者瞄准了这一问题,提出了一种名为Plenoxels的新方法。这项新研究表明,即使没有神经网络,从头训练一个辐射场(radiancefield)也能达到NeRF的生成质量,而且优化速度提升了两个数量级。
论文链接: