서지주요정보
OmniLocalRF: Omnidirectional local radiance fields from dynamic videos = 동적 비디오에서의 가상 시점 영상 합성을 위한 전방향 로컬 광도 필드
서명 / 저자 OmniLocalRF: Omnidirectional local radiance fields from dynamic videos = 동적 비디오에서의 가상 시점 영상 합성을 위한 전방향 로컬 광도 필드 / Dongyoung Choi.
발행사항 [대전 : 한국과학기술원, 2024].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8042262

소장위치/청구기호

학술문화관(도서관)2층 학위논문

MCS 24022

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

Omnidirectional cameras are extensively used in various applications to provide a wide field of vision. However, they face a challenge in synthesizing novel views due to the inevitable presence of dynamic objects, including the photographer, in their wide field of view. In this paper, we introduce a new approach called Omnidirectional Local Radiance Fields (OmniLocalRF) that can render static-only scene views, removing and inpainting dynamic objects simultaneously. Our approach combines the principles of local radiance fields with the bidirectional optimization of omnidirectional rays. Our input is an omnidirectional video, and we evaluate the mutual observations of the entire angle between the previous and current frames. To reduce ghosting artifacts of dynamic objects and inpaint occlusions, we devise a multi-resolution motion mask prediction module. Unlike existing methods that primarily separate dynamic components through the temporal domain, our method uses multi-resolution neural feature planes for precise segmentation, which is more suitable for long 360◦ videos. Our experiments validate that OmniLocalRF outperforms existing methods in both qualitative and quantitative metrics, especially in scenarios with complex real-world scenes. In particular, our approach eliminates the need for manual interaction, such as drawing motion masks by hand and additional pose estimation, making it a highly effective and efficient solution.

전방향 카메라는 다양한 응용 분야에서 널리 사용되고 있으나 넓은 시야각으로 인해 사진촬영자와 같은 이동체들이 불가피하게 촬영되곤 한다. 이러한 이동체가 촬영된 360도 영상을 사용하여 새로운 시점의 영상 합성을 할 경우, 이동체의 기하학적 비일관성으로 인해 잔상 효과가 발생하며 합성 영상의 퀄리티를 떨어트린다. 본 논문에서는 로컬 광도 필드 (LocalRF)에 양방향 정제와 이동체 마스크 예측 모듈을 결합하여 이동체가 포착된 긴 360 영상을 활용한 새로운 시점 영상 합성 방법인 OmniLocalRF를 제안한다. OmniLocalRF는 이동체 마스크 예측을 통해 학습 중, 미리 학습된 모델없이 영상내 이동체를 배제하며 현재 로컬 광도 필드로부터 멀리 떨어진 프레임을 활용한 추가 학습을 통해 안정적이고 실사적인 영상 합성에 성공하였다.

서지기타정보

서지기타정보
청구기호 {MCS 24022
형태사항 iv, 32 p. : 삽도 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 최동영
지도교수의 영문표기 : Min Hyuk Kim
지도교수의 한글표기 : 김민혁
Including Appendix
학위논문 학위논문(석사) - 한국과학기술원 : 전산학부,
서지주기 References : p. 27-30
주제 Omnidirectional camera
Novel view synthesis
Neural radiance fields
Bidirectional optimization
Motion mask prediction
Pose estimation
전방향 카메라
가상 시점 영상 합성
뉴럴 광도 필드
양방향 최적화
이동체 마스크
카메라 행렬 추정
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서