Light field imaging is a technology capable of acquiring abundant ray information in 3D, and has the advantage of acquiring viewpoint-dependent information compared to a conventional 2D camera that can record only incident light from a fixed viewpoint. This view-dependent information contains observations necessary to reconstruct three-dimensional information in space. In this dissertation, we propose an inverse-rendering based system capable of synthesizing the appearance that preserves the view-point dependence even at the unobserved point by using the dense sample ratio of the wide-baseline light field. This system acquires the light field data using 32 cameras arranged in a grid, and the scene is effectively expressed by calculating the geometric information and reflection property parameters considering the reflectivity of the object. Through this system, it is possible to synthesize the scene from a new viewpoint while reserving information on the actual reflection characteristics of an object even using a commercial mesh-based renderer.
라이트필드 이미징은 3차원 상의 풍부한 광선 정보를 취득할 수 있는 기술로, 기존의 고정된 시점으로 입사하는 빛만 기록할 수 있는 2차원 카메라에 비해 시점 의존적인 정보를 획득하는 것에 강점을 가진다. 이러한 시점 의존적인 정보는 공간의 입체 정보를 재구성하는 데에 필요한 관측값들을 내포하고 있다. 본 학위 논문에서는 원거리 베이스라인 라이트필드의 촘촘한 표본 비율을 활용하여 관측되지 않은 지점에도 시점 의존성을 보존한 외관을 합성할 수 있는 인버스 렌더링 기반 시스템을 제안한다. 본 시스템에서는 격자로 배열한 32개의 카메라를 이용해 라이트필드 데이터를 취득하고, 물체의 반사도를 고려한 기하정보와 반사 성질 매개변수를 계산함으로서 장면을 효과적으로 표현한다. 이 시스템을 통해 상용 메쉬 기반 렌더러를 활용하여 물체의 실제적인 반사 특성에 대한 정보를 보존하며 새로운 시점에서의 장면을 합성할 수 있다.