免费咨询热线

13621929115
常见问题
您的位置: 主页 > 新闻动态 > 常见问题

展品模型

发布日期:2023-04-04 21:57浏览次数:

不再需要任何 3D 或 4D 数据,来自 Meta 的研究者首次提出了可以从文本描述中生成三维动态场景的方法 MAV3D (Make-A-Video3D)仅输入一行文本,就能生成 3D 动态场景?没错,已经有研究者做到了。

    可以看出来,目前的生成效果还处于初级阶段,只能生成一些简单的对象不过这种「一步展品模型到位」的方法仍然引起了大量研究者的关注:

    在最近的一篇论文中,来自 Meta 的研究者首次提出了可以从文本描述中生成三维动态场景的方法 MAV3D (Make-A-Video3D)。

    论文链接:https://arxiv.org/abs/2301.11280项目链接:https://make-a-vid展品模型eo3d.github.io/具体而言,该方法运用 4D 动态神经辐射场(NeRF),通过查询基于文本到视频(T2V)扩散的模型,优化场景外观、密度和运动的一致性。

    任意机位或角度都可以观看到提供的文本生成的动态视频输出,并可以合成到任何 3D 环境中MAV3D 不需要任何 3D 或 4D 数据,T2展品模型V 模型只对文本图像对和未标记的视频进行训练。

    让我们看一下 MAV3D 从文本生成 4D 动态场景的效果:

    此外,它也能从图像直接到 4D,效果如下:

    研究者通过全面的定量和定性实验证明了该方法的有效性,先前建立的内部 baseline 也得到了改进据悉,这是第一个根据文本描述生成 3D 动态场景的方法展品模型方法该研究的目标在于开发一项能从自然语言描述中生成动态 3D 场景表征的方法。

    这极具挑战性,因为既没有文本或 3D 对,也没有用于训练的动态 3D 场景数据因此,研究者选择依靠预训练的文本到视频(T2V)的扩散模型作为场景先验,该模型已经学会了通过对大规模图像、文本和视频数据的训练来建模场景的真实外展品模型观和运动。

    从更高层次来看,在给定一个文本 prompt p 的情况下,研究可以拟合一个 4D 表征

    的输出;,它模拟了在时空任意点上与 prompt 匹配的场景外观。没有配对训练数据,研究无法直接监督然而,给定一系列的相机姿势

    并将它们堆叠成一个视频 V然后,将文本 prompt p 和视频 V 传递给展品模型冻结和预训练的 T2V 扩散模型,由该模型对视频的真实性和 prompt alignment 进行评分,并使用 SDS(得分蒸馏采样)来计算场景参数 θ 的更新方向。

    渲染出图像序列就可以从上面的 pipeline 可以算作 DreamFusion 的扩展,为场景模型添加了一个时间维度,并使用 T2V展品模型 模型而不是文本到图像(T2I)模型进行监督然而,要想实现高质量的文本到 4D 的生成还需要更多的创新:。

    第一,需要使用新的、允许灵活场景运动建模的 4D 表征;第二,需要使用多级静态到动态优化方案来提高视频质量和提高模型收敛性,该方案利用几个 motion regularizer 来生成真实的运动展品模型;第三,需要使用超分辨率微调(SRFT)提高模型的分辨率。

    具体说明见下图:

    实验在实验中,研究者评估了 MAV3D 从文本描述生成动态场景的能力首先,研究者评估了该方法在 Text-To-4D 任务上的有效性据悉,MAV3D 是首个该任务的解决方案,因此研究开发了三种替代方法作为基线。

    其次,研究者评估展品模型了 T2V 和 Text-To-3D 子任务模型的简化版本,并将其与文献中现有的基线进行比较第三,全面的消融研究证明了方法设计的合理性第四,实验描述了将动态 NeRF 转换为动态网格的过程,最终将模型扩展到 Image-to-4D 任务。

    指标研究使用 CLIP R-Precision 来评估生成的视展品模型频,它可以测量文本和生成场景之间的一致性报告的指标是从呈现的帧中检索输入 prompt 的准确性研究者使用 CLIP 的 ViT-B/32 变体,并在不同的视图和时间步长中提取帧,并且还通过询问人工评分人员在两个生成的视频中的偏好来使用四个定性指标,分别是:(i) 视频质量;(ii) 忠实于文本 p展品模型rompt;(iii) 活动量;(四) 运动的现实性。

    研究者评估了在文本 prompt 分割中使用的所有基线和消融图 1 和图 2 为示例。要想了解更详细的可视化效果,请参见 make-a-video3d.github.io。

    结果表 1 显示了与基线的比较(R - 精度和人类偏好)。人工测评以在特定展品模型环境下与该模型相比,赞成基线多数票的百分比形式呈现。

    表 2 展示了消融实验的结果:

    实时渲染使用传统图形引擎的虚拟现实和游戏等应用程序需要标准的格式,如纹理网格HexPlane 模型可以轻易转换为如下的动画网格首先,使用 marching cube 算法从每个时刻 t 生成的不透明度场中提取一个简单网展品模型格,然后进行网格抽取(为了提高效率)并且去除小噪声连接组件。

    XATLAS 算法用于将网格顶点映射到纹理图集,纹理初始化使用以每个顶点为中心的小球体中平均的 HexPlane 颜色最后,为了更好地匹配一些由 HexPlane 使用可微网格渲染的示例帧,纹理会被进一步优化。

    这将产生一个纹理网格集合,可以展品模型在任何现成的 3D 引擎中回放图像到 4D图 6 和图 10 展示了该方法能够从给定的输入图像产生深度和运动,从而生成 4D 资产。

    更多研究细节,可参考原论文。


标签:

产品推荐

Copyright © 2002-2020 上海润之模型设计有限公司 版权所有 展示模型,展品模型,展厅模型,展示道具,展厅展品,展品道具,模型定制,模型公司,上海模型公司 备案号:沪ICP备20018260号

13621929115