Motion estimation and 3D reconstruction have been studied in computer vision. Main issue is to estimate motion and 3D structure simultaneously. With known 3D structure, motion can be estimated easily. However we do not know 3D structure in general case. Several approaches are proposed for solving the problem.
In the case of single calibrated camera, a motion can be estimated up to metric space without any 3D information. With more information for the structure from stereo camera, a motion can be estimated in Euclidean space. However a stereo system has narrow field of view compared to single camera. And it makes the system unstable and limits the performance in vision applications.
To overcome the narrow field of view, this thesis develops a system of non-overlapping cameras. In this thesis, two main algorithms are proposed. An algorithm to estimate the extrinsic parameters of the non-overlapping cameras is proposed. Secondly an algorithm to estimate the motion of non-overlapping cameras is proposed. Modeling the non-overlapping cameras as single camera gives more strong constraints in geometric interpretation.
The performance of the proposed algorithm is validated using both synthetic and real images. The proposed algorithm shows a comparable performance with respect to conventional methods.
기하학에 기초하여 카메라의 움직임을 추정하거나 3차원 구조를 복원할 수 있다. 이를 위한 다양한 방법론들이 제안되었다.
하나의 보정된 카메라를 사용하는 경우 카메라의 움직임은 유사 공간에서 추정될 수 있다. 카메라의 움직임을 유클리디언 공간에서 결정하기 위하여 3차원 구조에 대한 정보가 필요하다. 하나의 보정된 스테레오 카메라를 사용하는 경우 카메라의 움직임은 유클리디언 공간에서 추정될 수 있지만 상대적으로 좁은 시야각을 갖는다. 좁은 시야각은 시스템을 불안정하게 만들며 성능을 제한한다.
이와 같은 문제를 해결하기 위하여 본 논문에서는 겹침이 없는 카메라에 대하여 연구한다. 첫 번째로 겹침이 없는 카메라의 외부 변수를 보정하기 위한 알고리즘을 제안한다. 제안된 알고리즘은 고전적인 카메라 보정 방법을 이용하여 추정된 카메라 각각의 외부 변수를 이용하여 유도된다. 두 번째로 카메라의 광학 중심 추정을 통하여 겹침이 없는 카메라의 움직임을 추정하는 알고리즘을 제안한다. 겹침이 없는 카메라를 하나의 카메라와 같이 모델링하는 것은 기하학적으로 강한 제약 조건을 제공한다.
합성된 영상과 실제 영상에서 제안된 알고리즘의 성능을 검증한다. 제안된 알고리즘은 고전적인 방법론과 비길만한 성능을 보인다.