Spherical cameras with multiple fisheye lenses have been broadly used to capture an omnidirectional field of view of scenes. Since fisheye lenses' optical characteristics are significantly different, the traditional pinhole-based epipolar geometry is not directly applicable to spherical stereo matching. Current spherical stereo matching methods calculate stereo correspondences across \emph{strongly distorted} spherical images, suffering from the inefficiency of memory usage and computational cost and inaccuracy of estimated distance, particularly near the baseline poles of the stereo pair. In this paper, in order to increase the efficiency of computation and memory, we propose an spherical stereo matching algorithm by devising a novel \emph{equal-epiline subdivision} on a spherical geodesic grid. First, input spherical images are mapped to the icosahedral geodesic polyhedron divided into five sets of four principal polyhedral triangles. The spherical geodesic grid is transversely rotated to make two antipodal poles from north-south to west-east. The spherical geodesic grid is then tessellated with equal-arc subdivision, making the cell sizes and in-between distances virtually uniform, i.e., the arc length of the spherical grid cell's edges is consistent. Our novel equal-epiline subdivision scheme takes the advantages of the uniform equal-arcs geodesic grid on a spherical surface and an equal-chords geodesic grid on a planar plane simultaneously. In addition, our uniformly tessellated coordinates can be transformed into spherical coordinates via one-to-one mapping, allowing for analytical forward/backward transformation. It enables efficient and accurate stereo correspondence search from spherical images using epipolar geometry. We evaluate the efficiency and accuracy of our stereo matching method using ground-truth simulation. Our uniform tessellation scheme allows us to achieve higher accuracy of stereo matching than the traditional cylindrical and cubemap-based approaches. At the same time, it reduces the memory footage required for stereo matching by 20%.
전방위 거리영상을 만들기 위한 구면 스테레오 카메라의 거리 추출 방법은, 초광각 영상의 주변부에서 나타나는 심각한 왜곡으로 인해 정확한 거리를 추출하는 것이 어려웠다. 특히 실시간 동작을 위해 가장 널리 쓰이고 있는 LL(Longitude-latitude) 기반 방식은, 기존 직교좌표계에서의 수평정합방법을 이용해 빠르게 거리를 추출할 수 있도록 고안되었으나, 확대 왜곡되는 구의 양극 부분에서의 거리추출 정확도가 떨어졌다. 이는 180도 이상의 화각을 가진 두 개의 스테레오 카메라를 이용한 최소의 구성으로 전방위 스테레오 카메라를 구성할 수 없음을 의미한다. 이에 가장 균일하게 구를 모델링할 수 있다고 알려진 지오데식 다면체를 이용하여 구면이미지를 2차원의 영상처리 이미지로 변환하고, 전 화각에서 더 정확한 거리정보를 추출할 수 있도록 하고자 한다.
이 논문에서 새로운 지오데식 다면체 분할방법을 제시하여, 2차원에서 직접 연산이 가능한 구면 스테레오 알고리즘을 구현한다. 이는 지오데식 다면체의 구형 모델링 우수성을 이용할 아니라 기존 거리추출방식과 같은 선형 공선조건을 제안하여, 기존의 지오데식 그리드에서 필요했던 3차원의 좌표참조 및 연산을 하지 않으면서도 더 빠른 연산속도와 작은 메모리 소모를 가지게 하였다. 이를 3D 합성영상에서 결과를 비교하고, 상용화된 실제 카메라를 이용하여 알고리즘이 동작함을 보인다. 거리정보 정확도를 에러레이트와 RMSE로 비교한 결과, 기존의 방법에 비해서 20% 더 변환된 이미지 크기와 25% 더 작은 매칭 윈도우 크기를 이용함에도 불구하고, 양극점 부근을 포함한 전체 영역에서 최대 40% 더 정확한 거리정보를 추출할 수 있었다.