For the safe autonomous driving with vision-based distance estimation, gaining a wide field of view information to sense the surrounding situation and precise information with details for reliability are essential factors. However, obtaining the two factors simultaneously is difficult, as they relate in inversely due to the limited size of the image sensor. Considering the issue, in this paper, I suggest the new distance estimation system by using two different types of images which are the perspective projection image for the details in the region of interest (RoI) and 360° omni-directional equirectangular projection (ERP) image for the beyond regions. The distance is estimated in stereo-based solution at intersected regions and monocular-based solution at the rest of the regions. However, due to the inaccurate result of the monocular-based solution, I suggest supplementing the inaccuracy by conjugating the stereo-based solution. Besides the distance estimation, as the region of interest (RoI) can be changed due to the user’s attention, the system also includes an online calibration task to consider a rotation of the perspective projection image.
영상 기반의 거리 추정을 통해 안전한 자율 주행이 이루어지려면 주변 상황 감지를 위한 넓은 시야각 확보와 정확성을 위해 고화질의 영상을 확보하는 것이 중요하다. 그러나 두 요소는 한정된 크기를 가지는 영상 센서로 인해 역관계를 이루어 동시에 정보를 확보하는 것에 어려움이 있다. 이 점에 착안하여, 이 논문에서는 주행 방향과 같이 관심도가 높은 영역에 대해 고화질의 원근 투영 영상을 취득하고 이외의 영역은 360도 전 방향의 등장방형도법 영상을 취득함으로써 서로 다른 두 가지의 영상을 활용한 새로운 거리 추정 시스템을 제안한다. 기본적으로 영상이 겹쳐지는 영역에 한해 양안 기반 거리 추정을, 이외의 영역에서는 단안 기반의 거리 추정을 진행한다. 그러나 단안 기반의 낮은 정확도를 고려해 양안 기반의 결과를 활용하여 그 정확도를 보완하는 방법을 같이 제안한다. 또한, 관심도가 높은 영역의 위치가 변할 수 있기에 원근 투영 영상의 회전을 고려하여 실시간 외부 매개변수 교정을 같이 소개한다.