서지주요정보
SpherePHD : applying CNNs on a spherical polyhedron representation of 360$^\circ$ images = 정이십면체 기반 360도 이미지 표현 및 CNN 적용 방법
서명 / 저자 SpherePHD : applying CNNs on a spherical polyhedron representation of 360$^\circ$ images = 정이십면체 기반 360도 이미지 표현 및 CNN 적용 방법 / Yeonkun Lee.
저자명 Lee, Yeonkun ; 이연건
발행사항 [대전 : 한국과학기술원, 2020].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8035915

소장위치/청구기호

학술문화관(도서관)2층 패컬티라운지(학위논문)

MME 20011

휴대폰 전송

도서상태

이용가능

대출가능

반납예정일

리뷰정보

초록정보

Omni-directional cameras have many advantages over conventional cameras in that they have a much wider field-of-view (FOV). Accordingly, several approaches have been proposed recently to apply convolutional neural networks (CNNs) to omni-directional images for various visual tasks. However, most of them use image representations defined in the Euclidean space after transforming the omni-directional views originally formed in the non-Euclidean space. This transformation leads to shape distortion due to nonuniform spatial resolving power and the loss of continuity. These effects make existing convolution kernels experience difficulties in extracting meaningful information. This paper presents a novel method to resolve such problems of applying CNNs to omni-directional images. The proposed method utilizes a spherical polyhedron to represent omni-directional views. This method minimizes the variance of the spatial resolving power on the sphere surface, and includes new convolution and pooling methods for the proposed representation. The proposed method can also be adopted by any existing CNN-based methods. The feasibility of the proposed method is demonstrated through classification, detection, and semantic segmentation tasks with synthetic and real datasets.

본 논문에서는 전방향 영상을 합성곱 신경망에 공급할 때 생기는 문제를 이미지의 기하학적 왜곡과 관련하여 심도 있게 분석하였으며, 이러한 왜곡을 해결하기 위해 새로운 형태의 전방향 영상 표현 기법인 SpherePHD 표현 방식을 제안하였다. 또한 본 논문에서는 제안한 SpherePHD 표현 방식의 영상을 합성곱 신경망에 적용시킬 수 있도록 새로운 알고리즘을 제안하였다. 마지막으로 본 논문에서는 제안한 SpherePHD 표현 방식이 타당하며 합성곱 신경망에 적용시켰을 때 기존의 전방향 영상에 비해 높은 성능을 보인다는 것을 다양한 실험을 통해 검증하였다. 검증에 사용된 실험은 객체 분류, 객체 탐지, 의미론적 영역 분할 기법, 깊이 지도 생성이다.

서지기타정보

서지기타정보
청구기호 {MME 20011
형태사항 v, 33 p. : 삽도 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 이연건
지도교수의 영문표기 : Kuk-Jin Yoon
지도교수의 한글표기 : 윤국진
학위논문 학위논문(석사) - 한국과학기술원 : 기계공학과,
서지주기 References : p. 29-31
주제 Omni-directional image
CNN
Non-euclidean deep learning
classification
object detection
semantic segmentation
depth estimation
전방향 영상
합성곱 신경망
비유클리드 심층 학습 기법
객체 분류
객체 탐지
의미론적 영역 분할 기법
깊이 지도 생성
QR CODE qr code