서지주요정보
Purpose-built sensor fusion for autonomous vehicles = 자율주행자동차의 목적 기반 센서 융합 기법
서명 / 저자 Purpose-built sensor fusion for autonomous vehicles = 자율주행자동차의 목적 기반 센서 융합 기법 / Yongseop Jeong.
발행사항 [대전 : 한국과학기술원, 2023].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8040124

소장위치/청구기호

학술문화관(도서관)2층 학위논문

DRE 23001

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

This dissertation proposes a purpose-built sensor fusion, constructing sensor system for autonomous vehicles and selectively fusing them based on purposes. The components and implementation details of an autonomous vehicle are introduced in order to show the process of transforming a mass-produced car into a self-driving car. RGB cameras, near-infrared (NIR) cameras, an inertial measurement device, a GNSS, LiDARs, and a vehicle control area network (CAN) grabber are selectively fused to collect two driving datasets. Specifically, a multi-modal depth dataset for changing environments and a large-scale driving dataset are proposed. Adaptive cost volume fusion network for depth estimation is verified from the proposed multi-modal depth dataset. A lightweight depth completion network with local similarity-preserving knowledge distillation is proposed and verified. Application of the proposed system are introduced. Representation learning method from driving scenes is performed from images with vehicle motion information. Proposed system is utilized to verify the sensor fusion based methods for estimating vehicle dynamics from sensors on the actual road. Dead-reckoning in GNSS-denied environments is performed by fusing the lane information from front camera and the response of the inertial measurement unit, with verification of the performance by comparing the results between the proposed method and those of previous works.

이 논문은 자율주행자동차를 위한 센서 시스템을 구성하고, 이들을 선택적 융합하여 활용하는 목적 기반 센서 융합 기법을 제안한다. 연구에 사용된 시스템의 구성 요소와 구현 상세를 제시함으로써 양산 자동차를 자율주행자동차로 변환하는 예를 보인다. 양안 카메라, 근적외선 카메라, 관성 측정 장치, 위성 항법 장치, 라이다 및 자동차의 제어 영역 네트워크 데이터 수집 장치를 선택적으로 융합하여 수집한 2가지의 데이터세트를 제안한다. 구체적으로, 환경 변화를 반영한 멀티 모달 깊이 데이터세트와, 대규모 주행 데이터세트를 제시한다. 수집한 데이터세트를 기반으로 효율적인 깊이 추정을 위한 적응형 비용 볼륨 융합 네트워크를 검증한다. 지역 유사도 보존 지식 증류 방법 기반 경량 깊이 완성 기법을 제안하고 검증한다. 제안하는 목적 기반 센서 융합 시스템의 다양한 활용 예를 보인다. 자동차의 움직임 정보를 포함하는 영상 정보를 주행 장면의 표현 학습에 적용한다. 실제 도로에서 센서 기반 차량 동역학 모델 추정 방법을 검증하기 위해 제안된 시스템을 활용한다. 위성 항법 장치를 사용할 수 없는 환경에서 관성 측정 장치와 차선 정보를 결합한 추측 항법 기법을 보인 후, 종래의 방법과 비교하여 성능을 검증한다.

서지기타정보

서지기타정보
청구기호 {DRE 23001
형태사항 v, 85 p. : 삽도 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 정용섭
지도교수의 영문표기 : In So Kweon
지도교수의 한글표기 : 권인소
수록잡지명 : "Lightweight Depth Completion Network with Local Similarity-Preserving Knowledge Distillation". Sensors, v.22.no.19, 7388(2022)
수록잡지명 : "Adaptive Cost Volume Fusion Network for Multi-Modal Depth Estimation in Changing Environments". IEEE Robotics and Automation Letters, v.7.no.2, pp.5095-5102(2022)
학위논문 학위논문(박사) - 한국과학기술원 : 로봇공학학제전공,
서지주기 References : p. 74-85
주제 Autonomous vehicle
sensor fusion
driving dataset
depth completion
knowledge distillation
자율주행차
센서 융합
주행 데이터세트
깊이 완성
지식 증류
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서