DrawingProcess
드프 DrawingProcess
DrawingProcess
전체 방문자
오늘
어제
«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30
  • 분류 전체보기 (969) N
    • Profile & Branding (25)
      • Career (18)
    • IT Trends (254)
      • Conference, Faire (Experien.. (31)
      • News (187)
      • Youtube (19)
      • TED (8)
      • Web Page (2)
      • IT: Etc... (6)
    • Contents (98)
      • Book (67)
      • Lecture (31)
    • Project Process (94)
      • Ideation (0)
      • Study Report (34)
      • Challenge & Award (22)
      • 1Day1Process (5)
      • Making (5)
      • KRC-FTC (Team TC(5031, 5048.. (10)
      • GCP (GlobalCitizenProject) (15)
    • Study: ComputerScience(CS) (72)
      • CS: Basic (9)
      • CS: Database(SQL) (5)
      • CS: Network (14)
      • CS: OperatingSystem (3)
      • CS: Linux (39)
      • CS: Etc... (2)
    • Study: Software(SW) (95)
      • SW: Language (29)
      • SW: Algorithms (1)
      • SW: DataStructure & DesignP.. (1)
      • SW: Opensource (15)
      • SW: Error Bug Fix (43)
      • SW: Etc... (6)
    • Study: Artificial Intellige.. (149)
      • AI: Research (1)
      • AI: 2D Vision(Det, Seg, Tra.. (35)
      • AI: 3D Vision (70)
      • AI: MultiModal (3)
      • AI: SLAM (0)
      • AI: Light Weight(LW) (3)
      • AI: Data Pipeline (7)
      • AI: Machine Learning(ML) (1)
    • Study: Robotics(Robot) (33)
      • Robot: ROS(Robot Operating .. (9)
      • Robot: Positioning (8)
      • Robot: Planning & Control (7)
    • Study: DeveloperTools(DevTo.. (83)
      • DevTool: Git (12)
      • DevTool: CMake (13)
      • DevTool: NoSQL(Elastic, Mon.. (25)
      • DevTool: Container (17)
      • DevTool: IDE (11)
      • DevTool: CloudComputing (4)
    • 인생을 살면서 (65) N
      • 나의 취미들 (7)
      • 나의 생각들 (42)
      • 여행을 떠나자~ (10)
      • 분기별 회고 (6) N

개발자 명언

“ 매주 목요일마다 당신이 항상 하던대로 신발끈을 묶으면 신발이 폭발한다고 생각해보라.
컴퓨터를 사용할 때는 이런 일이 항상 일어나는데도 아무도 불평할 생각을 안 한다. ”

- Jef Raskin

맥의 아버지 - 애플컴퓨터의 매킨토시 프로젝트를 주도

인기 글

최근 글

최근 댓글

티스토리

hELLO · Designed By 정상우.
DrawingProcess

드프 DrawingProcess

Study: Artificial Intelligence(AI)/AI: 3D Vision

[논문리뷰] Wild-GS: NeRFwithRealWorld + 3D GS + Depth Regularization - Wild-GS: Real-Time Novel View Synthesis from Unconstrained Photo Collections (Arxiv 2024)

2024. 11. 13. 23:59
반응형
💡 본 문서는 'Wild-GS: Real-Time Novel View Synthesis from Unconstrained Photo Collections (Arxiv 2024)' 논문을 정리해놓은 글이다.
해당 논문은 관광객이 찍은 데이터셋을 활용하여 3D Reconstruction을 진행하는 Task(unstructured tourist environments)를 해결하기 위한 논문이다. 이는 NeRF 기반이 아닌 Gaussian Splatting 을 활용하였으며, Hierarchical Appearance Modeling과 Depth Regularization을 진행한 것이 특징이니 참고하기 바란다.
 - Paper: https://arxiv.org/abs/2406.10373

Abstract

Wild-GS는 3D Gaussian Splatting(3DGS) 기반 기법을 제안하여, 불규칙한 관광지 사진 데이터(unconstrained photo collections)에서도 효과적인 장면 재구성과 노벨 뷰 합성을 가능하게 한다. 기존의 NeRF 기반 기법은 동적 외관과 일시적인 객체를 처리하기 위해 추가 모듈을 도입했지만, 훈련 시간이 길고 렌더링 속도가 느린 한계가 있었다.

Wild-GS는 각 3D 가우시안의 appearance을 material attributes, global illumination and camera properties per image, and point-level local variance of reflectance을 통해 결정하여, 고유한 참조 이미지의 고주파 세부 정보를 3D 공간으로 효과적으로 전이시킨다. 또한, 2D visiblity map과 depth regularization를 통해 Transient한 효과를 줄이고 기하학적 구조를 제약한다. 실험 결과, Wild-GS는 기존 방법보다 빠르고 정확한 훈련 및 추론 효율성을 달성하며, 최첨단 렌더링 성능을 보여준다.

이 논문이 가지는 contribution 중 가장 메인이 되는 부분을 정리해보면 다음과 같다.

  • illumination과 tone 같은 Scene의 특징을 반영한 Global Appearance Embedding과 Position-aware한 특징을 반영한 Local Appearance Embedding 을 잘 활용하여 SH에 효과적으로 Appearance를 반영하였다.
  • Depth Anything 모델을 활용하여 Depth Regularization을 진행하였다.

Methods

  • (a) Global appearance embedding Emb^g capturing the illumination level or tone mapping of the entire scene; 
  • (b) Local appearance embedding Emb_i^l describing the positional-aware local reflectance for i-th 3D Gaussian;
  • (c) Intrinsic feature f in i storing the inherent attributes of the material in the dominant area for each Gaussian.

Before rasterization, a shared fusion network MF θ is leveraged to decode the view-dependent color sh from these three appearance components:

1. Hierarchical Appearance Modeling

1-1) Global Appearance Embedding (Emb^g)

the low-frequency appearance changes among the entire scene.

  • F_I_R: the feature maps obtained from the UNet encoder(ResNet-18 pre-trained by ImageNet) in the 2D Parsing module 
  • AvgPooling: global average pooling
  • M^G_θ: a trainable MLP

1-2) Local Appearance Embedding (Emb_i^l) 

2D -> 3D: back-project the reference image I_R into the space using the rendered depth D^_I_R and camera parameters ω_I_R

  • M_I_R: visibility mask  
  • Th: threshold distinguishing the transient objects
  • {CIR , PIR} refers to the generated point cloud with positions PIR and colors CIR

3D -> 2D(triplane): the 3D points are normalized for re-projection onto the three orthogonal planes defined by the triplane

where P~_I_R represents the normalized point positions.

  • {c′_xy, c′_yz, c′_zx}: triplane color of each axis corresponding reverses
  • UNet U^3D_θ: to extract the triplane feature maps F^T_I_R

The positional-awareness local appearance embedding utilized to interpolate the three plane features {fixy, fiyz, fizx} for each 3D Gaussian.

1-3) Intrinsic Feature f in i

  • a learnable intrinsic appearance feature
  • which remain consistent despite environmental changes.
  • Inspired by EAGLES (Girish et al., 2023), which compresses the attributes of the 3D Gaussian into a low-dimensional latent vector.

2. Depth Regularization

Depth information는 the sparse view reconstruction에 종종 사용한다(Deng et al., 2022; Li et al., 2024; Zhu et al., 2023). Wild-GS에서도 렌더링된 깊이를 활용하여 Reference View(2D)를 3D space 상에 back project 하는데 사용한다.

이때, 각 reference view에서 깊이 정보를 보정하기 위해 Depth Anything (Yang et al., 2024) 사용하여 추정한 깊이 정보를 활용하여 Regularization을 진행한다. 이는 Rendered Depth와 Estimated Depth 사이에 Pearson correlation loss(proposed by FSGS (Zhu et al., 2023))를 적용하여 구현하였는데, 이 Pearson correlation loss는 transient object를 masking하는 방식으로 수정하여 사용했다.

3. Handling Transient Objects

Experimental

Experimental을 확인해보면, NeRF in the Wild Task 내에 GS를 활용한 방법론들이 많으나, 해당 논문은 NeRF based 논문과만 성능을 비교한 것을 확인할 수 있다. 

정성적인 평가 결과 또한, NeRF based Method와만 비교하였는데 다른 것에 비해 Appearance를 잘 반영하는 모습은 확인할 수 있다.

 

반응형
저작자표시 비영리 변경금지 (새창열림)

'Study: Artificial Intelligence(AI) > AI: 3D Vision' 카테고리의 다른 글

[논문 리뷰] ActiveSplat: Gaussian map + Voronoi graph - High-Fidelity Scene Reconstruction through Active Gaussian Splatting (Arxiv 2024)  (0) 2024.11.14
[논문 리뷰] NeRF in the Wild(NeRF-W): NeRFwithRealWorld + Embedding - Neural Radiance Fields for Unconstrained Photo Collections (CVPR 2021 Oral)  (1) 2024.11.14
[Survey] NeRFwithRealWorld 관련 논문 정리  (0) 2024.10.30
[논문 리뷰] NeRF-HuGS: NeRFwithRealWorld + Regularization - Improved Neural Radiance Fields in Non-static Scenes Using Heuristics-Guided Segmentation (CVPR 2024 Oral)  (0) 2024.10.29
[논문 리뷰] NeRF-W (CVPR 2021 Oral): Appearance Embedding, Uncertainty - NeRF in the Wild: Neural Radiance Fields for Unconstrained Photo Collections  (0) 2024.09.21
    'Study: Artificial Intelligence(AI)/AI: 3D Vision' 카테고리의 다른 글
    • [논문 리뷰] ActiveSplat: Gaussian map + Voronoi graph - High-Fidelity Scene Reconstruction through Active Gaussian Splatting (Arxiv 2024)
    • [논문 리뷰] NeRF in the Wild(NeRF-W): NeRFwithRealWorld + Embedding - Neural Radiance Fields for Unconstrained Photo Collections (CVPR 2021 Oral)
    • [Survey] NeRFwithRealWorld 관련 논문 정리
    • [논문 리뷰] NeRF-HuGS: NeRFwithRealWorld + Regularization - Improved Neural Radiance Fields in Non-static Scenes Using Heuristics-Guided Segmentation (CVPR 2024 Oral)
    DrawingProcess
    DrawingProcess
    과정을 그리자!

    티스토리툴바