서지주요정보
Deep recursive segmentation networks = 심층 제귀 영역 분할 신경망
서명 / 저자 Deep recursive segmentation networks = 심층 제귀 영역 분할 신경망 / Fei Pan.
발행사항 [대전 : 한국과학기술원, 2018].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8032121

소장위치/청구기호

학술문화관(문화관) 보존서고

MEE 18102

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

This paper considers building recursive layers that are unrolled to increase depth of the architecture in the task of semantic segmentation. Currently, results from the state-of-the-art models illustrate that increasing the physical depth, that is adding more layers with skip connections, effectively boosts the segmentation performance. However, there are two main issues for the very deep models. Firstly, deeper models requires more labeled data to train, which is labor expensive for computer vision tasks, such as detection and segmentation. Secondly, most of very deep models are feed forward, which fails to support rapid visual recognition. In this work, Deep Recursive Segmentation Networks (DRSN) are proposed that reuse a portion of parameters during feed forward process. DRSN have two exceptional advantages over previous models. Firstly, DRSN contains a limited amount of parameters meanwhile making deeper model depth. Secondly, DRSN support rapid visual recognition that is vital in some applications, such as robots and autonomous cars. While utilizing only 15% of parameters of previous FCN models, we achieve 80% the performance on the pixel accuracy.

이 논문에서는 의미 론적 세분화 작업에서 아키텍처의 깊이를 증가시키기 위해 전개 된 재귀 적 층을 구축하는 것을 고려합니다. 현재 최첨단 모델의 결과는 건너 뛰기 연결을 통해 더 많은 레이어를 추가하는 물리적 깊이를 증가 시키면 효과적으로 세그먼트 화 성능을 향상시키는 것을 보여줍니다. 그러나 매우 깊은 모델에는 두 가지 주요 쟁점이 있습니다. 첫째, 모델이 깊을수록 교육을위한 분류 된 데이터가 더 많이 필요합니다. 이는 탐지 및 분할과 같은 컴퓨터 비전 작업에 많은 비용이 듭니다. 두 번째로, 매우 깊은 모델의 대부분은 피드 포워드 (feed forward)이며, 이는 신속한 시각적 인식을 지원하지 못합니다. 본 연구에서는 피드 포워드 프로세스 동안 매개 변수의 일부를 다시 사용하는 DRSN (Deep Recursive Segmentation Networks)을 제안합니다. DRSN은 이전 모델에 비해 두 가지 뛰어난 이점이 있습니다. 첫째, DRSN은 한정된 양의 매개 변수를 포함하는 한편 더 깊은 모델 깊이를 만듭니다. 둘째, DRSN은 로봇 및 자율 차량과 같은 일부 애플리케이션에서 필수적인 빠른 시각적 인식을 지원합니다. 이전 FCN 모델의 매개 변수 15% 만 사용하는 동안 픽셀 정밀도에서 80% 의 성능을 달성했습니다.

서지기타정보

서지기타정보
청구기호 {MEE 18102
형태사항 iii, 23 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : Fei Pan
지도교수의 영문표기 : Chang Dong Yoo
지도교수의 한글표기 : 유창동
학위논문 학위논문(석사) - 한국과학기술원 : 전기및전자공학부,
서지주기 References : p. 18-21
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서