Recently, many technologies for autonomous driving are being developed. In particular, for the safety of a vehicle, a pose estimation method using various sensors is being developed. Among them, many studies using camera image data are being conducted. Images are data that can be obtained at a lower price than other sensors, and a lot of information can be utilized depending on the data processing method. The purpose of this thesis is to learn LSGAN, a kind of productive adversarial neural network, in a semi-supervised learning method, and to achieve a visual driving measurement method using a monocular camera. The method using a monocular camera is more versatile than the method using a binocular camera because it can be easily installed in small robots or drones. In order to estimate the accurate pose of a monocular camera in the conventional method, prior information such as ground truth must be provided. On the other hand, using deep learning, accurate pose estimation is possible without ground truth data of the situation.
최근 자율주행을 위한 세부 기술들이 많이 개발되고 있다. 특히, 이동체의 안전을 위해 여러가지 센서들을 이용한 위치 추정방식이 개발되고 있다. 그 중에서도 카메라의 이미지 데이터를 이용한 연구들이 많이 진행되고 있다. 이미지는 다른 센서들에 비해 저렴한 가격으로 얻을 수 있는 data이며, data 처리 방식에 따라 많은 정보를 활용할 수 있다. 본 학위 논문에서는 생산적 적대 신경망의 한 종류인 LSGAN을 준지도학습 방식으로 방식으로 학습시켜, 단안 카메라를 이용한 시각적 주행 측정법을 달성하는 것이 목적이다. 쌍안 카메라를 이용하는 방식보다 단안 카메라를 이용하는 방식은 소형로봇이나 드론에도 쉽게 설치 할 수 있기 때문에 범용성이 높다. 또한 기존의 방식에서 단안 카메라의 정확한 깊이를 추정하기 위해서는 절대 좌표와 같은 선행 정보가 있어야 하지만 심층학습을 통해 절대 크기를 도출 할 수 있다.