腾讯、上海科大开源InstantMesh,图片直接生成3D模型

添加书签

专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!

腾讯PCG ARC实验室和上海科技大学的研究人员联合开源了创新模型——InstantMesh。

用户通过InstantMesh上传一张图片,只需要十秒的时间就能将图片变成360度全视角的3D模型。并且可以下载模型将其放在3D Max、玛雅等专业软件中,以简化游戏、广告、家居、虚拟现实等开发流程。

研究人员在公开数据集Google Scanned Objects、OmniObject3D等InstantMesh进行了综合测试。

结果显示,其生成的3D模型在视觉质量和几何精度上都显著优于现有最新方法,如LGM、CRM等。在多视角的合成任务上,InstantMesh也明显优于SV3D等知名扩散模型。

开源地址:https://github.com/TencentARC/InstantMesh

在线demo:https://huggingface.co/spaces/TencentARC/InstantMesh

论文地址:https://arxiv.org/abs/2404.07191

InstantMesh的技术创新在于,将多视图扩散模型和稀疏视图重建模型相结合使用。

首先利用多视角扩散模型生成一组一致的多视角图像,然后利用稀疏视图重建模型直接预测3D网格,整个过程只需要十几秒甚至几秒就能完成。

为了提高训练效率,并在3D网格表示上应用几何监督信息,InstantMesh还引入了一个可微分的等值面提取模块。这种方法能够直接在网格表面上进行优化,从而提高训练效率和模型生成的质量。

多视图扩散模型

多视图扩散模型的主要作用是将一张静态的2D图片中生成一系列新的视角图像,这些图像覆盖了目标物体的多个方向。

首先,接收用户输入的图片,并利用Zero123++模型生成一系列的新视角图像,包括了物体的正面、侧面、上面、下面和背面等360度视角图片。

这可以帮助InstantMesh捕捉到图片的全方位信息,为后续的3D网格预测打下坚实的基础。

简单来说,整个过程就像玩拼图游戏一样,例如,需要从一张完整的图片中找到所有可能的视角,然后将它们拼凑起来,形成一个完整的立体图像

所以,也可以把多视图扩散模型理解成InstantMesh的“眼睛”,帮助它深度剖析每一张上传的图片。

稀疏视图重建模型

稀疏视图重建模型则主要负责将,多视图扩散模型生成的视图拼装成3D模型。首先通过其内部的神经网络架构,提取输入图像的特征,并将其与先前的知识结合起来,以便更好地理解物体的结构和外观。

利用提取到的特征和辅助知识,稀疏视图重建模型能预测出一个初步的3D网格模型,包含了物体的基本形状和结构,但是在质量和细节方面还差很多。

所以,研究人员使用了可微分的等值面提取模块对网格表面进行几何监督,大幅度优化3D模型的细节和平滑度

此外,这种直接在网格表面进行监督训练的优化方法,避免了体素渲染的高计算消耗,同时能利用全分辨率的RGB图像、深度图和法线图作为训练监督,也使得生成的3D模型更加适合于后续的渲染、编辑和分析等应用。

本文素材来源InstantMesh论文,如有侵权请联系删除

END

本篇文章来源于微信公众号: AIGC开放社区