哈佛发布三维语义高斯泼溅LangSplat CVPR‘24 提速199倍!清华&amp

入选CVPR 2024 Highlight的三维语义高斯泼溅最新成果,查询速度比之前的SOTA方法LERF快了 199倍

清华&哈佛团队提出,在开放文本目标定位和语义分割任务上达到SOTA性能。

该工作目前在(Twitter)上受到广泛关注,论文视频累计浏览量超过100,000,论文代码已开源。

结合三维高斯泼溅技术重建三维语义场

人类生活在一个三维世界中,并通过文本语言描述三维场景。构建三维语义场以支持在三维空间中的开放文本查询最近越来越受到关注。

LangSplat方法结合三维高斯泼溅技术重建三维语义场,能够实现准确高效的开放文本查询。

现有方法在NeRF的基础上嵌入CLIP语义特征,LangSplat则通过结合三维高斯泼溅,在每个高斯点上编码了从CLIP提取的语义特征。

LangSpla采用tile-based的三维高斯泼溅技术来渲染语义特征,从而避免了NeRF中计算成本高昂的渲染过程。

首先训练特定场景下的语义自编码器,然后在场景特定的低维latent space上学习语义特征,而不是直接学习高维的CLIP语义特征,从而降低了计算量。

现有基于NeRF的方法的三维语义场比较模糊,无法清晰地区分目标的边界。本文深入研究了这一问题,提出使用SAM学习多层次语义,在不引入DINO特征的情况下获得了更准确的语义场。

广泛的实验结果表明,LangSplat在开放文本目标定位和语义分割任务上的性能显著超过了之前的SOTA方法LERF。值得注意的是,LangSplat在1440×1080分辨率的图像上,查询速度比LERF快了199倍。

团队强烈推荐查看在项目主页中的更多视频结果。

https://langsplat.github.io/

具体方法

首先来看LangSplat的主要贡献,分别为:

具体来说,采用了如下方法:

层次语义学习: LangSplat利用Segment Anything Model(SAM)学习层次语义,解决了三维语义场的边界模糊问题。

3D语义高斯泼溅: LangSplat引入了一种新的技术,即3D高斯泼溅,它使用包含语义特征嵌入的3D高斯来表示3D场景。这种方法比NeRF-based的方法渲染过程更快。

特定场景的语义自编码器: 为了缓解高维语义特征嵌入导致的内存out of memory问题,LangSplat构建特定场景的语义自编码器将这些文本语义特征降维。

层次语义学习

在本文中,团队利用SAM来获得实例级的精确对象掩码,然后用这些掩码对应的图像区域提取像素对齐的特征。团队还明确地建模了SAM定义的语义层次,以解决点模糊性问题。

具体来说,团队将一个32×32点提示的常规网格输入SAM,以获得三个不同语义层次下的掩码,分别代表子部分、部分和整体层次的掩码。

然后基于SAM预测的IoU分值、稳定性分值和掩码之间的重叠率,为每一组掩码去除冗余的掩码。

每个过滤后的掩码集合独立地根据其各自的语义层次做全图分割,从而得到三个分割图: Ms,Mp,Mw。

这些分割图准确地勾勒出对象在其层次结构中的边界,有效地将场景划分为语义上有意义的区域。通过获得的分割图,团队继续为每个分割区域提取CLIP特征。数学上,得到的像素对齐的语义嵌入是:

如此,从三维语义场景渲染的每个像素都具有与其精确语义上下文相匹配的CLIP特征。这种匹配减少了模糊性,提高了基于语义的查询的准确性。

此外,由于团队在“整体”、“部分”和“子部分”层次上都有不同的分割图,团队可以直接在这些预定义的尺度上查询三维语义场。这消除了在多个绝对尺度上进行密集搜索的需要,使查询过程更加高效。

3D语义高斯泼溅

在一组2D图像上获得语义嵌入后,团队可以通过建模3D点和2D像素之间的关系来学习一个3D语义场。大多数现有方法使用NeRFs进行3D建模,但它们面临着耗时的渲染过程。

为了解决这个问题,团队提出了基于3D高斯散射的3D语义场建模方法。这种3D高斯散射方法明确地将3D场景表示为各向异性的3D高斯分布的集合,每个高斯分布G(x)由均值μ∈R^3和协方差矩阵∑描述:】

3D高斯投影到2D图像平面上后,用基于tile的光栅化策略进行渲染:

其中, ci是第i个高斯的颜色,N表示瓦片中的高斯数量, C(v)是在像素 v 处渲染的颜色。

这里是oi第i个高斯的不透明度,Gi2D (⋅)代表投影到二维上的第 i 个高斯的函数。

在本文中,团队提出了3D语义高斯,为每个高斯增加三个语义嵌入{fs, fp, fw} 。这些嵌入源自CLIP特征,捕捉了SAM提供的层次语义。增强后的高斯被命名为3D语义高斯。并采用基于tile的光栅化器以保持渲染效率:

其中, Fl(v)代表在像素 处以语义层次l渲染的语义嵌入。通过直接将语义信息引入高斯中,团队使三维语义场能够响应基于文本的查询。

特定场景的语义自编码器

作为一种显式建模方法,表征一个复杂场景可能需要数百万个3D点。直接在高维的CLIP潜空间直接学习高斯的语义特征会显著增加内存消耗,容易导致“内存不足”的问题。

为降低内存消耗并提高效率,团队引入了基于场景的语义自编码器,将场景中的CLIP嵌入映射到低维潜在空间。CLIP模型是通过4亿对(图像,文本)训练的,其D维潜在空间可能非常紧凑。

然而,团队在这里训练的语义场Φ是特定于场景的,这意味着团队可以利用场景先验知识压缩CLIP特征。事实上,对于每个输入图像,团队将获得由SAM分割的数百个掩码,这显著少于CLIP训练中使用的图像数量。因此,场景中的所有分割区域在CLIP潜在空间中稀疏分布,使团队能够通过基于场景的自编码器进一步压缩这些CLIP特征。

实验结果

实验设置:实验测试了该方法在开放词汇3D对象定位和语义分割任务上的性能,使用的数据集包括LERF和3D-OVS。

结果:LangSplat显著优于先前的最先进方法。特别是,它在1440×1080分辨率下比LERF快199倍,显示出在速度和效率上的显著提高。

可视化和消融研究:论文包括了详细的可视化和消融研究,展示了LangSplat各组成部分的有效性。

项目主页: https://langsplat.github.io/论文: https://arxiv.org/pdf/2312.16084.pdf视频: https://youtu.be/K_9S1ODAc?si=gfo5TrLK-htyWyuT开源代码: https://github.com/minghanqin/LangSplat


清华紫光空气能热水器好用吗

专业的空气能是使用R415B一类的制冷剂的,最低工作环境可达-15度。 用一般的空气能也是可以的,只不过需要24小时通电。 空气能确实省电,并不像大家所说的完全是靠电来加热的,如果真正知道空气能就不会这么说了。

国内哪所大学物理系最好

物理系也分专业的,而且国内各大学物理系的专业划分也不是完全一样。 比如北京大学物理学院的本科专业划分是:物理学,天文学,大气科学,核科学。 清华大学物理系本科专业则是:数理基础科学和物理学。 所以基本上只有一个物理学专业,是各个大学都有的。 从这个专业来看,北京大学是国内最好的。

清华自称什么五道口职业技术学院,我济大

五道口是一个地名,周围很多大学,清华在这边。 所以清华大学的绰号叫“五道口理工学院、五道口工程技术大学”。 中国高校江湖绰号,网络流传一组关于中国大学校名的另类称谓,许多知名高等院校被另类解读,一时爆红网络。 一网帖详细列举了全国大部分高校的绰号,有的甚至一校多名。 这些绰号大多是根据高校的地理位置、校园文化以及专业特色戏称而来。 1、北京大学被叫做“圆明园职业技术学院”2、武汉大学是“珞珈山综合职业技术培训学院”3、中国农业大学被称为“海淀种猪选育场”4、华中农业大学则变成了“湖北农务学堂”5、中国矿业大学被称为“侯山窝煤炭职业技术学院”6、新改名的湖北医药学院因为其学校采用的“毛体”而其中的“医药”二字近似于“酱菜而得名”。

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://120.77.238.70/caijing/36735.html
激活发展动能 点燃创新引擎
暂无