서지주요정보
(The) development of the scale-aware monocular depth estimation aided monocular visual SLAM system for real-time robot navigation = 실시간 로봇 항법 시스템을 위한 스케일 인식 단안 깊이 추정의 개발
서명 / 저자 (The) development of the scale-aware monocular depth estimation aided monocular visual SLAM system for real-time robot navigation = 실시간 로봇 항법 시스템을 위한 스케일 인식 단안 깊이 추정의 개발 / Jedsadakorn Yonchorhor.
발행사항 [대전 : 한국과학기술원, 2021].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8038101

소장위치/청구기호

학술문화관(문화관) 보존서고

MEE 21155

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

The autonomous navigation systems in mobile robots are currently one of the hottest research topics as the unmanned mobile robot market size is forecasted to skyrocket in the near future. Many sensors, for instance LiDAR, RADAR, IMU and cameras, become the core components in such systems. Because of being rich in information, relatively cheap, lightweight, compact, ubiquitous, and having low power consumption, monocular vision-based navigation, namely visual SLAM and visual odometry, has attracted a lot of attention from robotic researchers. However, monocular vision-based navigation systems impose many challenges: scale-ambiguity, tracking robustness, and map initialization delay. In this work, we show that, by incorporating dense depth maps predicted by monocular depth estimation network to visual SLAM, the proposed RGB-Deep D SLAM framework could mitigate issues of monocular SLAM. The results, evaluated in the KITTI dataset, indicate that the proposed framework improves tracking robustness by about 12 \%. Moreover, when the depth estimation network is scale-aware, scale-ambiguity problem of the odometry is also alleviated, as evidenced in the reduction of the normalized of median value of root mean square error (RMSE) of absolute trajectory error (ATE) of about least 84 \%. Thanks to the presence of depth information, the RGB-Deep D SLAM could instantly initialize the map which solves the delay issue in the monocular visual SLAM. These results suggest that RGB-Deep D SLAM could be deployed as a monocular vision-based real-time navigation system. In addition, we verify the deployment of the proposed system by integrating it to the full navigation stack consisting of SLAM, path-planner, and controller. The autonomous navigation is successfully demonstrated in two scenarios of the unknown environment using the DJI Tello drone.

모바일 로봇의 자율항법 시스템은 무인 모바일 로봇의 시장 규모가 가까운 시일 내에 급성장할 것으로 예상되면서 현재 가장 뜨거운 연구 주제 중 하나이다. LiDAR, RADAR, IMU 및 카메라와 같은 많은 센서는 이러한 시스템의 핵심 구성 요소가 됩니다. 정보가 풍부하기 때문에 상대적으로 저렴하고 가벼우며 컴팩트하고 유비쿼터스하며 전력 소비량이 낮기 때문에 시각적 SLAM과 시각적 주행법이라는 단일 비전 기반 내비게이션은 로봇 연구원들의 많은 관심을 끌었다. 그러나 단일 비전 기반 내비게이션 시스템은 스케일 모호성, 강력성 추적, 지도 초기화 지연 등 많은 문제를 야기합니다. 본 연구에서는, 단안 깊이 추정 네트워크에 의해 예측된 조밀한 깊이 지도를 시각적 SLAM에 통합함으로써, 제안된 RGB-Deep DSLAM 프레임워크가 단안 SLAM의 문제를 완화할 수 있음을 보여준다. KITTI 데이터 세트에서 평가된 결과는 제안된 프레임워크가 추적 건전성을 약 12 \% 향상시킨다는 것을 나타낸다. 또한 깊이 추정 네트워크가 척도를 인식하면 루트 평균 제곱 오차(RMSE)의 중앙값의 절대 궤적 오차(ATE) 약 84 \% 감소에서 입증되었듯이 주행 기록계의 척도 모호성 문제도 완화된다. 깊이 정보 덕분에, RGB-Deep DSLAM은 지도를 즉시 초기화할 수 있었고, 이는 단안 시각적 SLAM의 지연 문제를 해결할 수 있었습니다. 이러한 결과는 RGB-Deep DSLAM을 단일 비전 기반 실시간 내비게이션 시스템으로 구축할 수 있음을 시사합니다. 또한 제안된 시스템을 SLAM, 경로 플래너 및 컨트롤러로 구성된 전체 탐색 스택에 통합하여 시스템 구현을 검증합니다. DJI Tello 드론을 이용한 알 수 없는 환경의 두 가지 시나리오에서 자율 항법이 성공적으로 입증된다.

서지기타정보

서지기타정보
청구기호 {MEE 21155
형태사항 vi, 66 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 욘쩌허 젵사다껀
지도교수의 영문표기 : David Hyunchul Shim
지도교수의 한글표기 : 심현철
수록잡지명 : "A Deep-learning-aided Automatic Vision-based Control Approach for Autonomous Drone Racing in Game of Drones Competition". Proceedings of the NeurIPS 2019 Competition and Demonstration Track, PMLR, v.123, pp.37-46(2020)
학위논문 학위논문(석사) - 한국과학기술원 : 전기및전자공학부,
서지주기 References : p. 62-64
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서