Pose estimation of an aerial vehicle is a fundamental and challenging issue in an aerospace community. A GPS system which takes information by the communication between a vehicle and a satellite is usually used for the localization of a vehicle. However, GPS system is unstable when there is a jamming around the vehicle. Even though an IMU system is also applied for estimating pose of the vehicle, this system accumulates error as time passes. This thesis develops new localization method which is robust to the limitations using a camera.
This thesis is aimed at getting pose of an UAV matching with forward-looking aerial images from an UAV and a down-looking image from a satellite. To overcome the limitations of totally different camera characteristics, we use buildings as cues of matching. We first extract buildings from aerial images and construct the 3D of buildings with a fundamental matrix. Finally, we estimate the pose of the vehicle by matching 3D of buildings with a satellite image using MCMC.
The performance of the algorithm is validated using synthetic data and real images in each step. We verify the final result manually. Each step’s and final results show reasonable performance.
비행기의 자세를 추정하는 것은 항공 커뮤니티에서 매우 핵심적이며 도전적인 문제이다. GPS 시스템의 경우 위성과 비행기와의 통신을 통해 비행기의 자세를 추정하므로, 전파방해가 있을 경우 문제가 발생한다. IMU의 경우 처음 이전 비행기의 자세에 대한 현재의 자세를 추정하므로 시간이 지남에 따라 오차가 누적되는 단점이 있다. 따라서 이 논문에서는 이러한 문제점을 해결하기 위해 카메라센서를 이용하여 강인하게 비행기의 자세를 추정하는 방법을 제안한다.
이 논문은 앞을 바라보고 있는 항공영상과 위성영상을 정합하여 무인비행체의 절대적 자세를 추정하는 방법을 제안한다. 항공영상과 위성영상의 완전히 다른 영상특성을 가지기 때문에 기존의 정합 방법들은 활용되지 못한다. 이를 극복하기 위해, 본 논문에서는 건물의 크기 및 건물간의 관계를 단서로 한다. 우선 항공영상에서 건물을 추출하고 그에 대해 3차원정보를 추출한다. 3차원 건물정보에서 건물의 크기 및 건물간의 관계 정보를 추정하고, 최종적으로 추출한 건물의 크기 및 관계정보를 이용하여 위성영상과 정합을 한다. 이를 이용하여 무인비행기의 자세를 추정한다.
본 논문의 알고리듬의 각 부분은 가상 데이터와 실제 데이터를 이용하여 타당성이 검증된다. 또한 본 논문에서 제시한 전체 알고리듬도 다양한 실험을 통해 합리적인 성능이 입증된다.