In order to provide various services using robots, autonomous navigation system for the robots is required. In this regard, it is necessary to estimate the pose of the robot from the sensor attached to the robot and to build a map representing the surrounding environment. From the past, the odometry representing the approximate pose of the robot have been usually calculated through the wheel encoder built in the wheel of the robot. The estimated pose from the odometry was corrected based on the generated map. This technique of estimating the approximate pose of the robot and generating a map in simultaneously is referred to as simultaneous localization and mapping (SLAM). However, the conventional SLAM method has limitation that it is only capable to the mobile robot. Recently, in order to overcome the limitation, only visual sensors are used to try to solve SLAM problem. Conventional visual SLAM research has been studied primarily in static environments. However, in a real environment, there are many moving objects such as cars, animals, and people. Since the pose of the robot is estimated using only the visual information, the most existing methods are affected by the dynamic motion. Therefore, in this paper, we propose a robust background-model based visual SLAM (BaM-SLAM) in a densely high dynamic environment. The proposed algorithm estimates the background-model represented by the non-parametric model from depth scenes, and then it estimates the ego-motion of the sensor using the energy-based dense-visual-odometry approach based on the estimated background-model (BaMVO) in order to consider moving objects. Since the proposed method applies the estimated background-model to ORB-SLAM2, it is possible to calculate the pose with emphasizing the static area and to remove correspondences of dynamic objects. Experimental results demonstrate the pose is robustly estimated by the proposed BaMVO and BaM-SLAM in a densely high dynamic environment. Finally, to prove the applicability of the proposed method, the proposed algorithm is applied to the path following for a robot.
로봇을 활용한 다양한 서비스를 제공하기 위해서는 로봇의 자율 주행이 필요하다. 기존에는 로봇의 바퀴에 내장된 휠엔코더를 통하여 로봇의 대략적인 위치를 나타내는 odometry를 계산하였고, 외부 환경을 레이저나 시각 센서를 사용하여 생성된 맵을 기반으로 그 위치를 보정하였다. 이렇게 로봇의 대략적인 위치를 추정함과 동시에 맵을 생성하는 기술을 SLAM (simultaneous localization and mapping) 이라고 일컫는다. 하지만, 기존의 SLAM 방식은 모바일 로봇에만 국한된다는 문제가 발생하여, 최근에는 시각 센서만을 이용하여 로봇의 위치 및 주변환경에 대한 매핑을 수행한다. 기존의 시각 SLAM 연구는 주로 정적인 환경에서 연구되어졌다. 하지만, 실제 환경에서는 자동차나, 동물, 사람과 같은 동적인 움직임이 영상내에서 많이 발생한다. 시각 SLAM기술은 주로 얻어진 이미지의 차이를 기반으로 변화된 센서의 포즈를 추정하기 때문에, 기존의 시각 SLAM 연구는 영상에서 발생하는 동적인 움직임에 대한 영향을 받는다. 따라서, 본 논문에서는 밀집한 동적인 환경에서 강인한 배경모델 기반의 시각 SLAM인 BaM-SLAM (background-model based visual SLAM) 을 제안한다. 제안하는 알고리즘은 연속적인 깊이 이미지들로부터 비-파라메트릭 모델 기반의 배경모델을 추정하고, 동적인 환경에서 강인하게 포즈 변화를 추정하기 위해 추정된 배경모델을 기반으로 에너지기반의 밀집 시각 주행거리 (BaMVO - background-model based dense-visual odometry) 를 계산한다. 또한, 추정된 배경모델은 ORB-SLAM2에 접목하여, 정적인 영역에 대한 가중치를 높여 센서의 포즈를 추정하고, 동적인 물체에 대한 시각 특징점의 연관관계를 제거한다. 본 논문에서는, 제안하는 BaMVO와 BAM-SLAM을 밀집한 동적인 환경에서의 실험을 통해 그 효과를 입증하고, 실제 로봇에 적용을 통해 동적인 환경에서 주어진 경로를 따라갈 수 있는 기능을 구현하였다.