In the realm of autonomous mobile robots, safe navigation through unpaved outdoor environments remains a challenging task. Due to the high-dimensional nature of sensor data, extracting relevant information becomes a complex problem, which hinders adequate perception and path planning. Previous works have shown promising performances in extracting global features from full-sized images. However, they often face challenges in capturing essential local information. In this paper, we propose Crop-LSTM, which iteratively takes cropped image patches around the current robot’s position and predicts the future position, orientation, and bumpiness. Our method performs local feature extraction by paying attention to corresponding image patches along the predicted robot trajectory in the 2D image plane. This enables more accurate predictions of the robot’s future trajectory. With our wheeled mobile robot platform Raicart, we demonstrated the effectiveness of Crop-LSTM for point-goal navigation in an unpaved outdoor environment. Our method enabled safe and robust navigation using RGBD images in challenging unpaved outdoor terrains.
최근 험지 자율 주행 연구에서 비포장 험지를 주행은 여전히 어려운 문제로 남아 있다. 고차원 센서 데이터에서 필요한 정보를 추출하는 것은 어려운 문제로, 이로 인해 로봇의 정확한 환경 지각 및 경로 계획을 방해한다. 기존 연구는 이미지 데이터에서 전역적인 정보를 성공적으로 추출했다. 하지만, 때로는 국지적인 정보를 얻어내는 데 어려움을 겪었다. 본 학위논문에서는 Crop-LSTM을 제시해, 반복적으로 잘린 이미지 조각을 얻애내 미래의 로봇 위치와 방위, 그리고 지면의 울퉁불퉁한 정도를 예측한다. 본 연구에서 제시하는 방법은 미래의 로봇 위치를 2D 이미지에 사영시켜, 그 주변의 정보에 어텐션(Attention)을 부여한다. 이로 인해 미래의 로봇 경로에 대해 정확한 예측을 가능하게 했다. 직접 제작한 차륜형 로봇 플랫폼인 Raicart에서 포인트-골 네비게이션 실험을 수행하여 Crop-LSTM의 효과를 검증한다. 본 연구에서 제시하는 방법으로
어려운 난이도의 비포장 험지에서의 안전한 자율주행을 성공시켰다.