Paper_Project
https://repo-sam.inria.fr/fungraph/hierarchical-3d-gaussians/

3D重建
3DGS开山作
https://repo-sam.inria.fr/fungraph/3d-gaussian-splatting/

3D重建是什么
从 2D 图像、视频、点云等输入数据中,还原真实场景或物体的 3D 几何结构、外观信息(颜色、纹理、光照),最终生成可交互、可渲染的3D数字化模型的过程

应用场景在哪里
- 消费娱乐:AR/VR,影视游戏
- 工业
- 文化遗产保护
- 医疗健康
- 自动驾驶
为什么使用3DGS
- 3D降维后依然是高斯,仿射变换之后依然是高斯
- 之前使用NERF,使用神经网络表示
- 基于体素的显式场景表示,可直接投影到2D进行快速光栅化,支持实时渲染
- 可微分(支持梯度下降优化),渲染质量高

基于3DGS的其他工作
Feature-3DGS
https://feature-3dgs.github.io/
DreamScene360
https://dreamscene360.github.io/

概述
- 无深度学习?
- 简单的机器学习
- 大量的CG知识
- 复杂的线性代数
- 高性能GPU编程
前置基础
高斯分布
一维高斯函数
通常用于表示一维数据(如时间序列或数值)的概率分布
f(x;μ,σ2)=2πσ21e−2σ2(x−μ)2| 符号 | 含义 |
|---|
| f(x) | 函数在 x 处的取值(概率密度) |
| x | 随机变量(自变量) |
| μ | 均值 (Mean):曲线的中心位置 |
| σ2 | 方差 (Variance):数据的分散程度 |
| σ | 标准差 (Standard Deviation):方差的平方根 |

二维高斯函数
通常用于图像处理和表示二维平面上的概率分布。它使用一个均值向量 μ 和一个协方差矩阵 Σ
f(x;μ,Σ)=2πdet(Σ)1e−21(x−μ)TΣ−1(x−μ)| 符号 | 含义 |
|---|
| x | 二维向量 (xy) |
| μ | 均值向量 (μxμy):分布的中心位置 |
| Σ | 协方差矩阵 (Covariance Matrix):一个 2×2 矩阵,描述 x 和 y 的方差和它们之间的协方差 |
| det(Σ) | 协方差矩阵的行列式 |

三维高斯函数
通常用于表示三维空间中的概率分布, 例如在3DGS中描述一个椭球
f(x;μ,Σ)=(2π)3det(Σ)1e−21(x−μ)TΣ−1(x−μ)| 符号 | 含义 |
|---|
| x | 三维向量 xyz:空间中的一个点 |
| μ | 均值向量 μxμyμz:椭球的中心点(位置) |
| Σ | 协方差矩阵 (Covariance Matrix):一个 3×3 矩阵,它完全定义了椭球体的形状、大小和旋转方向。在 3DGS 中,这个矩阵就是用来定义椭球几何的关键参数 |

协方差矩阵
方差
方差描述单个随机变量 X 相对于其均值 μX 的离散程度
Var(X)=E[(X−μX)2]协方差
协方差描述两个随机变量 X 和 Y 之间的线性关系方向(同向变化还是反向变化)
Cov(X,Y)=E[(X−μX)(Y−μY)]- Cov(X,Y)>0: X 和 Y 倾向于同向变化。
- Cov(X,Y)<0: X 和 Y 倾向于反向变化。
- Cov(X,Y)=0: X 和 Y 线性不相关。
二维协方差矩阵
Σ=(Cov(X,X)Cov(Y,X)Cov(X,Y)Cov(Y,Y))三维协方差矩阵
Σ=Var(X)Cov(X,Y)Cov(X,Z)Cov(X,Y)Var(Y)Cov(Y,Z)Cov(X,Z)Cov(Y,Z)Var(Z) Σ=σX2σXYσXZσXYσY2σYZσXZσYZσZ2 举例说明
X=(1,2,3,4,5), Y=(1,3,3,5,8)
μX=3, μY=4
| Xi | ΔX=Xi−3 | Yi | ΔY=Yi−4 | ΔX⋅ΔY |
|---|
| 1 | -2 | 1 | -3 | 6 |
| 2 | -1 | 3 | -1 | 1 |
| 3 | 0 | 3 | -1 | 0 |
| 4 | 1 | 5 | 1 | 1 |
| 5 | 2 | 8 | 4 | 8 |
| ∑ | ∑(ΔX)2=10 | | ∑(ΔY)2=28 | ∑(ΔX)(ΔY)=16 |
Var(X)=N∑(Xi−μX)2=510=2
Var(Y)=N∑(Yi−μY)2=528=5.6
X 和 Y 的协方差 (Cov(X,Y)): Cov(X,Y)=N∑(Xi−μX)(Yi−μY)=516=3.2
协方差矩阵:
Σ=(2.03.23.25.6)论文讲解
背景
如何基于3DGS做场景重建
光栅化器是把 “几何图元(比如点、线、面、3D 高斯)” 转换成 “屏幕像素” 的工具

高斯基元参数
- 均值:μ
- 协方差矩阵:∑
- 不透明度: o
- 球谐函数: SH
- α-blending权重: G(x,y)=e−21([x,y]T−μ′)T∑′−1([x,y]T−μ′)
马氏距离衡量一个样本到一组数据或某个中心的真实相似程度
D2=([x,y]T−μ′)T∑′−1([x,y]T−μ′)
,其中μ′=[x,y]T
研究动机与目标
- 现有的3D高斯渲染方法(如3D Gaussian Splatting)虽然在视觉质量和实时渲染方面表现出色,但受限于资源(如内存和计算能力),无法处理大规模场景
- 论文提出了一种分而治之的策略,通过将场景划分为多个“块”(chunks),并为每个块构建独立的层次化3D高斯表示,从而实现大规模场景的高效训练和实时渲染
核心
分层LOD
构建一个基于3D高斯的层次化树结构,每个节点都是一个3D高斯体元,能够高效表达场景的细节和概要
通过选择不同层次的节点进行渲染,实现了根据视点距离自动调整细节层次的功能,减轻渲染压力
横看成岭侧成峰,远近高低各不同
现实体验是距离远看的小,距离近看的大,所以我们希望远处物体使用大的粗粒度的3DGS去渲染,减少同时渲染的个数;对于近处的物体渲染更多细节,保证视觉质量
首先对所有的3DGS进行分层构建出一个层次结构,这里使用包围盒(BVH)来做,最后物理上相近的,更可能表示同一个物体的高斯球被分在一起
(上下两张图片均来源于B站UP主:来点盐巴吧)

现在相近的都被分在了一起,开始构建粗粒度高斯,所有细粒度的高斯作为最下层,从下至上构建新的高斯
中间节点生成
中间节点也是高斯,也具有上述属性/参数,需要推理这些节点的值
这些节点通过两两合并生成,新高斯球的属性由两个子高斯的属性加权生成(从下至上,叶子节点也就是最细粒度的是第l层,新生成的是l+1层)
合并后均值:μ(l+1)=∑iNwiμi(l)
合并后的协方差矩阵:Σ(l+1)=∑iNwi(Σi(l)+(μi(l)−μ(l+1))(μi(l)−μ(l+1))T)
归一化权重wi=∑iNwi′wi′
单个高斯对像素的颜色贡献:Ci(x,y)=oiciG(x,y) (ci是高斯颜色)
高斯对整个图像的总贡献 Ci:Ci=oici∫X∫YG(x,y)=oici(2π)2∣Σ′∣
考虑简单情况,我们希望父节点和子节点高斯分布贡献度相同:gp = g1 + g2
所以需要父节点的Cp = C1+C2,忽略与权重无关的常数因子和颜色: wi′=oici(2π)2∣Σ′∣
在实际应用中,由于高斯分布的二维协方差矩阵的行列式的平方根与对应三维椭球体的(投影)表面积成正比,我们计算每个椭球体的表面积Si
合并后的SH:SH(l+1)=SH1(l)w1+SH2(l)w2
不透明度需要特殊处理:Sp∑iNwi′

层次选择
给定一个视角,我们需要找到一个层次去渲染

- 定义粒度,量化层次节点的屏幕投影大小
- 设定目标粒度阈值,划定当前视角的细节需求,阈值的本质是 “用像素尺寸定义‘可接受的细节模糊度’”—— 当节点投影粒度≤阈值时,人眼难以察觉细节损失,此时用该节点渲染可兼顾效率;若粒度超过阈值,会出现明显的 “块状模糊”,需切换到更细的子节点
- 层次切割,筛选满足阈值的最深节点

层次过渡与插值
为了保证视觉质量,可以通过插值父节点和子节点的高斯属性来实现,使得层次之间过渡平滑
由层次选择返回的切分将包含满足过渡标准的节点,通过评估切分中每个节点的粒度以及其父节点p的粒度,
选择插值权重。
Attr=TnAttrp+(1−Tn)Attrc
权重公式,τϵ是目标粒度,ϵ(n)表示子节点粒度
tn=ϵ(p)−ϵ(n)τϵ−ϵ(n)(10)位置,颜色和球谐系数可以使用插值权重进行插值,对于协方差矩阵,执行方向匹配
节点优化与层次压缩
FastGS
https://fastgs.github.io/

- 标记所有的叶子节点,通过粒度选择满足阈值的节点,移除其他节点
- 优化节点属性,确保不同层级节点都能匹配全分辨率下的视觉细节
分块训练与优化
为了加速训练,首先训练一个大的脚手架,随后对场景分块,支持并行训练,最后合并为一个大的场景

环境搭建和代码复现
环境
- OS:Ubuntu 22.04.5 LTS
- GPU:NVIDIA GeForce RTX 4070 12GB
- Memory:64GB
- CPU: AMD Ryzen 7 7900X
(建议使用ubuntu-22.04)
安装 GCC/G++
直接使用apt安装
sudo apt install -y gcc-10 g++-11
版本验证
gcc-11 -v
g++-11 -v
符号链接
1
2
3
4
| sudo ln -s /usr/bin/gcc-11 /usr/bin/gcc
sudo ln -s /usr/bin/g++-11 /usr/bin/g++
gcc -v
g++ -v
|
这里使用12.1
cuda-toolkit-archive
https://developer.nvidia.com/cuda-toolkit-archive

可以在上面的归档页面中选择版本以及适合的操作系统和发行版
1
2
3
4
| sudo apt install wget -y
wget https://developer.download.nvidia.com/compute/cuda/12.1.0/local_installers/cuda_12.1.0_530.30.02_linux.run
sudo sh cuda_12.1.0_530.30.02_linux.run
|
稍后会弹出一个窗口,输入accept,后面再选择Install即可
设置PATH和LD_LIBRARY_PATH
1
2
3
4
| # 如果用的是bash,需要输出到:.bashrc
echo 'export PATH=/usr/local/cuda-12.1/bin:$PATH' >> ~/.zshrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.1/lib64:$LD_LIBRARY_PATH' >> ~/.zshrc
source ~/.zshrc
|
检查nvcc版本:nvcc --version,输出大致如下
1
2
3
4
| Copyright (c) 2005-2023 NVIDIA Corporation
Built on Tue_Feb__7_19:32:13_PST_2023
Cuda compilation tools, release 12.1, V12.1.66
Build cuda_12.1.r12.1/compiler.32415258_0
|
编译colmap
显卡计算能力
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
| sudo apt update
sudo apt install -y \
git \
cmake \
ninja-build \
build-essential \
libboost-program-options-dev \
libboost-graph-dev \
libboost-system-dev \
libeigen3-dev \
libfreeimage-dev \
libmetis-dev \
libgoogle-glog-dev \
libgtest-dev \
libgmock-dev \
libsqlite3-dev \
libglew-dev \
qtbase5-dev \
libqt5opengl5-dev \
libcgal-dev \
libceres-dev \
libcurl4-openssl-dev \
libmkl-full-dev
|
编译colmap, 由于需要cuda支持, 所以增加参数: -DCMAKE_CUDA_ARCHITECTURES=native -DCMAKE_CUDA_ARCHITECTURES=89,
DCMAKE_CUDA_ARCHITECTURES需要根据自己的显卡来设置
1
2
3
4
5
6
| git clone https://github.com/colmap/colmap.git
cd colmap
mkdir build && cd build
cmake .. -GNinja -DBLA_VENDOR=Intel10_64lp -DCMAKE_CUDA_ARCHITECTURES=native -DCMAKE_CUDA_ARCHITECTURES=89
ninja
sudo ninja install
|
最后检查是否成功
1
2
3
| which colmap
colmap -h
|
配置项目环境
需要使用conda, 请提前配置好conda, 我这里使用的是miniforge
配置虚拟环境
1
2
3
4
5
6
7
| cd ~
git clone https://github.com/graphdeco-inria/hierarchical-3d-gaussians.git --recursive
cd hierarchical-3d-gaussians
conda create -n hierarchical_3d_gaussians python=3.12 -y
conda activate hierarchical_3d_gaussians
pip install torch==2.3.0 torchvision==0.18.0 torchaudio==2.3.0 --index-url https://download.pytorch.org/whl/cu121
pip install -r requirements.txt
|
下载权重
1
2
| wget -P submodules/Depth-Anything-v2/checkpoints https://huggingface.co/depth-anything/Depth-Anything-V2-Large/resolve/main/depth_anything_v2_vitl.pth
wget -P submodules/DPT/weights/ https://github.com/intel-isl/DPT/releases/download/1_0/dpt_large-midas-2f21e586.pt
|
编译层次结构生成器与合并器
1
2
3
4
| cd submodules/gaussianhierarchy
cmake . -B build -DCMAKE_BUILD_TYPE=Release
cmake --build build -j --config Release
cd ../..
|
编译实时查看器
我实验时发现不能一次下载所有的, AI提示分步下载
1
2
3
| sudo apt install -y cmake libglew-dev libassimp-dev libboost-all-dev libgtk-3-dev libopencv-dev libglfw3-dev
sudo apt install -y libavdevice-dev libavcodec-dev libeigen3-dev libxxf86vm-dev libembree-dev
|
克隆层次查看器并构建
速度可能会很慢, 耐心等待
1
2
3
4
| cd SIBR_viewers
git clone https://github.com/graphdeco-inria/hierarchy-viewer.git src/projects/hierarchyviewer
cmake . -B build -DCMAKE_BUILD_TYPE=Release -DBUILD_IBR_HIERARCHYVIEWER=ON -DBUILD_IBR_ULR=OFF -DBUILD_IBR_DATASET_TOOLS=OFF -DBUILD_IBR_GAUSSIANVIEWER=OFF
cmake --build build -j --target install --config Release
|
运行
到这里环境就已经配置完成了, 接下来按照官方文档一步一步执行就可以了
初步运行结果(待更新)
- 官方小数据,大约1500张图片,421MB:训练需要176min
- 自己数据集,500张图片,3.5GB: 训练需要134min
代码流程
- 准备数据集,配置环境变量:
DATASET_DIR (建议使用绝对路径) - 预处理阶段
- 生成全局
COLMAP (相机标定+稀疏点云) - 将全局COLMAP切成多个
chunk - 生成单目深度图+深度标定参数(可选但建议)
- 优化阶段,有两种方法
- 一键端到端脚本:
python scripts/full_train.py --project_dir ${DATASET_DIR} - 手动优化(基本上就是论文中的流程)
- Coarse优化:训练全局脚手架(scaffold)
- 单个chunk的首次训练(独立3DGS)
- 为每个chunk构建层次结构
- 单个chunk的层次结构后优化
- 所有chunk的层次结构合并