서지주요정보
Robust SLAM and sensor calibration frameworks for robots using 2D LiDARs and cameras = 2차원 라이다와 카메라를 사용하는 로봇을 위한 강인한 위치 추정 및 센서 정합법
서명 / 저자 Robust SLAM and sensor calibration frameworks for robots using 2D LiDARs and cameras = 2차원 라이다와 카메라를 사용하는 로봇을 위한 강인한 위치 추정 및 센서 정합법 / Dong-Geol Choi.
발행사항 [대전 : 한국과학기술원, 2016].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8028632

소장위치/청구기호

학술문화관(문화관) 보존서고

DRE 16002

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

SLAM(simultaneous localization and mapping) is an important problem, because of the rapid market growth of autonomous navigation robots for living, working, military, and so on. Although many researchers studied for the problem, there are few commercial robots with the capability of autonomous navigation due to a number of challenges. The error accumulation problem may be solved using closed loops or global sensors, and dynamic environment may be handled by adopting object detection techniques. However, the problem of `lack of features’ is difficult to solve, because most existing pose estimation algorithms assume that there are enough features for further processes. In this dissertation, we mainly address the issues of SLAM in featureless environments, and of geometric calibration among 2D LiDARs and cameras required for the proposed methodologies. First, we present a robust 2D SLAM framework using a 2D LiDAR and two cameras. The edges and corners play an important role as `features' in two-dimensional pose estimation using a 2D LiDAR. Therefore, the method fails if the robot is in featureless environments such as long corridors. We propose a solution to the motion ambiguity of 2D pose estimation in featureless environments using images and vertical wall assumption. It is applied to the autonomous homing of robots, with efficient strategies for mapping and returning. Second, we present a practical means of extrinsic calibration between a camera and a 2D LiDAR, without overlap. In order to calibrate a non-overlapping camera-LiDAR system using conventional ones, it is necessary to attach an extra sensor, such as a camera or a 3D LiDAR. We propose two means of calibrating a non-overlapping camera-LiDAR system directly without an extra sensor. For each method, the initial solution of the relative pose between the camera and the 2D LiDAR is computed by adopting a reasonable assumption about geometric structures. This is then refined via non-linear optimization, even if the assumption is not met perfectly. Third, we introduce a new 3D SLAM framework using 2D LiDARs. Image features used by most 3D SLAM algorithms are robust in general cases, however, the algorithms do not work when illumination go out or the number of image features is insufficient. Instead of image features, we use geometric structures scanned by 2D LiDARs. We present a new method to estimate the pose of a lidar system using a single or multiple lidars, without any additional sensor. We scan three known planes in the target scene to obtain three linear measurements. Using three line-plane correspondences, the proposed algorithm provides a closed-form solution of sensor-to-world transformation. Finally, we propose a novel method of extrinsic calibration between two 2D LiDARs without any additional sensor or artificial landmark. Conventional methods use additional image sensors or artificial landmarks at known locations, because it is hard to find correspondences among scan data of 2D LiDARs moving in a 3D space. By scanning two orthogonal planes, we utilize the coplanarity of the scan points on each plane and the orthogonality of the planes. We also derive two degenerated cases, one related to plane poses and the other caused by the relative pose between two LiDARs.

자율 로봇의 필요성이 일상생활, 일터, 국방 등에서 빠르게 늘어나고 있기 때문에 로봇의 위치 추정과 지도 작성법은 매우 중요한 문제이다. 많은 연구자들이 이 문제에 대해서 연구했지만 몇 가지 해결이 어려운 문제들, 예를 들면 오류 누적, 동적 환경, 그리고 특징량 부족과 같은 문제들 때문에 현재 상업적으로 이용할 수 있는 자율 주행 로봇은 소수에 불과하다. 이 문제들 중 오류 누적은 루프 클로징을 이용하여 해결 할 수 있으며, 동적 환경에서는 동적물체 검출기술을 이용하여 극복할 수 있다. 특징량이 부족한 환경에서는 글로벌 위치 센서(GPS), 무선 데이터 신호(Wi-Fi), 혹은 지자기센서와 같은 글로벌센서를 사용하여 현재 위치를 추정할 수 있다. 하지만 일반적인 이미지나 거리와 같은 정보를 사용하는 로봇들은 현재 개발되어 있는 위치추정 알고리즘들이 특징량이 풍부한 상황을 가정하고 개발하였기 때문에 적당한 대응 방법이 없는 상황이다. 본 학위논문에서는 이러한 특징량이 없는 환경에서 각각의 2차원과 3차원 환경에서 사용할 수 있는 카메라와 2차원 라이다를 사용한 위치추정과 맵 작성법을 기술하고 각 방법론에서 제안한 센서들간의 보정을 위한 센서 보정법을 제시한다. 첫번째로, 한개의 2D 라이다와 두개의 카메라를 사용하여 2D 환경에서의 위치 추정 방법론을 제시한다. 2D 라이다를 사용한 일반적인 위치 추정 방식에서 주변 환경의 모서리와 모퉁이는 매우 중요한 정보를 준다. 그러나 긴 복도와 같이 이러한 특징이 없는 환경에서는 이러한 방식의 성공률은 높지 않다. 우리는 수직벽 가정하에 벽에서 얻은 이미지 특징량을 사용하여 이러한 환경에서의 움직임 모호성을 극복한다. 이 방법론은 자동복귀 로봇에 적용되었고 큰 실내 환경에서 실험을 하였으며 긴 복도 구간에서도 성공적으로 자율복귀를 함을 보였다. 두번째로 우리는 카메라와 2D 라이다의 시야각이 서로 겹치지 않게 배치되었을 때 둘 사이의 보정을 하는 방법을 제안하였다. 일반적인 방법으로 겹쳐지지 않은 카메라와 라이다 사이의 보정을 위해서는 카메라나 3D 라이다와 같은 추가적인 하나의 센서가 필요했다. 우리는 추가적인 센서 없이 직접적으로 카메라와 2D 라이다 사이를 보정할 수 있는 두가지 방법을 제시한다. 각각의 방법을 위해서 우리는 기하학 구조들 간의 구속조건을 사용하였다. 이렇게 얻은 초기값은 비선형 최적화를 이용하여 보정하였다. 세번째로 우리는 두개의 2D 라이다를 이용한 새로운 3차원 위치 추정 방식을 제안했다. 일반적인 경우에 대부분의 3차원 위치 추정은 이미지 특징량을 사용한다. 그러나 이러한 알고리즘들은 조명 변화가 심하거나 이미지 피쳐가 충분하지 못한 경우에는 잘 동작하지 않는 문제가 있다. 우리는 이미지 피쳐 대신에 2D 라이다로 주변 구조물을 스캔하여 움직임을 추정할 수 있는 새로운 알고리즘을 제안한다. 세개의 알고 있는 평면을 라이다로 스캔하고 라인과 평면사이의 대응관계를 이용하여 제안된 알고리즘은 센서와 월드간의 이동정보를 폐형 공식으로 계산해 낸다. 마지막으로, 우리는 추가적인 센서나 인공 구조물 없이도 두개의 2D 라이다간의 보정을 할 수 있는 새로운 방법을 제안한다. 2D 라이다 정보간의 대응관계를 알기 힘들기 때문에, 기존의 방법들은 추가적인 이미지 센서나 알고 있는 위치에 인공 구조물을 배치하여 서로간의 위치 보정을 하였다. 우리는 2개의 수직한 평면을 스캔하고 각 평면의 평면성과 직교성을 이용하여 추가적인 정보 없이도 두개의 라이다간의 위치보정을 할 수 있는 방법을 제시한다. 또한 두개의 예외적인 상황 분석과 하나의 특이상황에 대한 해결책도 제시하였다.

서지기타정보

서지기타정보
청구기호 {DRE 16002
형태사항 vii, 97 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 최동걸
지도교수의 영문표기 : In So Kweon
지도교수의 한글표기 : 권인소
학위논문 학위논문(박사) - 한국과학기술원 : 로봇공학학제전공,
서지주기 References : p. 86-91
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서