서지주요정보
Research about AI-based sensor advancement for autonomous driving in various weather conditions and urban environments = 다양한 날씨 조건 및 도심 환경에서 자율 주행을 위한 인공지능 기반 센서 고도화 연구
서명 / 저자 Research about AI-based sensor advancement for autonomous driving in various weather conditions and urban environments = 다양한 날씨 조건 및 도심 환경에서 자율 주행을 위한 인공지능 기반 센서 고도화 연구 / Dong-Hee Paek.
발행사항 [대전 : 한국과학기술원, 2021].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8038189

소장위치/청구기호

학술문화관(문화관) 보존서고

MRE 21007

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

LiDAR (Light Detection and Ranging) sensors and radar (Radio Detection and Ranging) sensors are used as key sensors for autonomous-driving vehicles. The usage of these sensors ranges from perception (e.g. object recognition, semantic segmentation, lane detection, etc.) to localization (e.g. LiDAR, radar odometry). In this paper, we introduce how lanes are detected in various urban environments with LiDAR pointcloud and how objects such as compact cars and large cars are detected under various weather conditions with range-azimuth tensors of radar. First, lane detection using LiDAR sensors has the advantage of being able to immediately get the position of lanes in Bird’s eye View, and the detection performance is not affected by illumination change. Lane detection using LiDAR sensors gives the pseudo-image represented in bird’s eye view by applying pillar-based encoding. The image which is extracted is given as input to a convolutional neural network-based network to obtain the corresponding positions for the lanes immediately. Object detection with radar sensors has the advantage of being less effected by the various weathers due to their long wavelength of microwave signals, unlike cameras and lidars whose performance decreases rapidly under various weather conditions. Object detection using radar sensors changes the range-azimuth tensor to an image of bird’s eye view represented as Cartesian coordinate and provides input to a convolutional neural network-based network to extract the position and azimuth of objects such as compact cars and large cars into bounding boxes.

라이다 센서와 레이다 센서는 자율주행 차량의 핵심 센서로 사용되고 있다. 이 센서들의 사용 범위는 인지(e.g. 객체 인식, 의미 분할, 차선 인식 등)부터 항법(e.g. 라이다, 레이다 Odometry)까지 다양하다. 본 논문에서는 라이다 포인트 클라우드로 다양한 도심 환경에서 차선을 인식하는 방법과 레이다의 거리-방위각 텐서로 다양한 날씨 조건에서 소형차, 대형차와 같은 객체를 인식하는 방법을 소개한다. 먼저 라이다 센서를 이용한 차선 인식은 조감도(Bird’s eye view)에서 차선의 위치를 즉시 알아낼 수 있고, 인식 성능이 조도에 영향을 받지 않는다는 장점이 있다. 라이다 센서를 이용한 차선 인식은 포인트 필라 기반의 인코딩을 적용해서 조감도의 수도-라이다 이미지를 추출하고, 합성곱 신경망 기반의 네트워크에 입력으로 제공하여 차선들에 해당하는 위치를 즉시 얻는다. 레이다 센서를 이용한 객체 인식은 다양한 날씨 조건에서 성능이 급격하게 감소하는 카메라, 라이다와 달리 마이크로 웨이브 신호의 긴 파장으로 인해서 인식 성능이 영향을 받지 않는다는 장점이 있다. 레이다 센서를 이용한 객체 인식은 거리-방위각 텐서를 조감도의 이미지로 변경하고 합성곱 신경망 기반의 네트워크에 입력으로 제공하여 소형차, 대형차와 같은 객체들의 위치 및 방위각을 추출한다.

서지기타정보

서지기타정보
청구기호 {MRE 21007
형태사항 v, 67 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 백동희
지도교수의 영문표기 : Seung-Hyun Kong
지도교수의 한글표기 : 공승현
학위논문 학위논문(석사) - 한국과학기술원 : 로봇공학학제전공,
서지주기 References : p.62-65
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서