서지주요정보
Rotation-invariant and spatial orderless deep feature representation for texture image classification = 텍스쳐 영상 인식을 위한 회전에 강인하고 공간 순서에 무관한 딥 특징 표현
서명 / 저자 Rotation-invariant and spatial orderless deep feature representation for texture image classification = 텍스쳐 영상 인식을 위한 회전에 강인하고 공간 순서에 무관한 딥 특징 표현 / Jongbin Ryu.
발행사항 [대전 : 한국과학기술원, 2017].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8031118

소장위치/청구기호

학술문화관(문화관) 보존서고

DCS 17011

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

In this thesis we propose texture classification method by two approaches: rotation-invariant handcraft feature and spatial orderless deep feature. The rotation-invariant handcraft approach has been a long-standing research issue for texture classification problem. Since the texture images include arbitrary rotational changes in every spatial positions so that invariance to the rotational change is most important property. However, despite of the importance of the rotation-invariant, the encoding process to consider the rotation-invariant property has caused some limitations including loss of some patterns and locality information. Hence, in this thesis, we tackle the limitation of the conventional methods by suggesting new texture feature descriptor. We first propose a sorted consecutive local binary pattern (LBP) for texture classification to resolve the problem with regard to the loss of some patterns. Second, we present a locality-preserving descriptor that encodes rotationinvariant features while retaining locality information. The deep feature approach has also studied to use deep neural network for the spatial orderless property. The deep feature has showed highly improved performance compared to handcraft feature in most domain of computer vision area. However, the texture classification area has certain characteristics that existing pre-trained models do not consider: specifically, the ‘orderless’ property of texture images. A texture image contains distinctive patterns that appear at arbitrary positions; therefore, a texture descriptor should encode those patterns regardless of their locations. Hence, in this thesis, we propose a new network architecture that is robust to the orderless property when encoding texture patterns. The key to our proposed method is a histogram pooling layer that pools convolutional neural network features in an orderless manner. To summarize, we have studied handcraft and deep feature based texture classification and the deep feature gave better performance compared to the handcraft feature. However, we believe that the findings of the handcraft feature have gave motivations and clues to the deep feature approach. Moreover, both handcraft and deep feature approaches will influence each other for the texture classification area.

텍스쳐 영상인식은 컴퓨터 비전영역에서 기초가 되는 매우 중요한 연구분야이다. 본 논문에서는 �(텍)스쳐 영상인식을 위해 크게 handcraft기반의 회전에 불변한 표시자와 공간순서에 무관한 딥(deep) 표시자기반의 두 가지 방법론을 제안하였다. 회전에 불현한 handcraft기반의 표시자는 2000년대 초반 이후로 오랜기간 연구되어온 분야이다. 텍스쳐 영상은 회전 변화가 매우 많은 패턴들을 포함하고 있기 때문에 회전에 불변한 표시자를 획득하는 것이 매우 중요한 연구주제이다. 하지만 회전에 불변한 표시자를 얻기위한 과정에서 몇가지 문제점들이 발생하는데, 대표적인 것이 특정 패턴과 지역정보 (locality information)의 손실이 있다. 따라서, 본 논문에서는 두 가지 손실에 대한 문제점을 지적하며 새로운 표시자 획득 방법을 제안하였다. 우리는 첫 번째로 Sorted consecutive local binary pattern을 제안하여 특정패턴의 손실 없이 회전에 불변한 텍스쳐 영상 표시자를 획득 할 수 있었고, 두 번째로 Locality preserving descriptor를 제안하여 지역정보의 손실이 없는 텍스쳐 영상 표시자를 표현하였다. 딥 러닝(Deep learning) 기반의 텍스쳐 영상 표시자 방법에 관한 연구도 수행하였는데 특히, 기존의 딥 러닝 기반의 연구들에서 고려하지 못했던 공간순서에 관계없는 표시자에 관해 연구하였다. 텍스쳐 영상은 다른 카테고리에 속하는 텍스쳐 영상과 구분되는 패턴들을 영상내에서 위치와 관계없이 가지는데, 기존의 딥 러닝 모델들은 공간순서에 관계없이 패턴들을 표현하지 못한다 따라서 본 논문에서 히스토그램(histogram) pooing을 제안하여 공간순서에 관계없는 딥 표시자를 표현하였다. 따라서 본 논문에서는 handcraft 기반의 두 가지 표시자 표현과 딥 러닝기반의 표시자 표현방법까지, 총 세가지 방법을 제안 하였다. 결과적으로 딥 러닝기반의 표시자가 handcraft 기반의 표시자보다 월등히 좋은 성능을 보여 주었지만, handcraft 기반의 연구들이 딥 러닝 기반의 연구들에 많은 배경지식과 직관을 주었다. 또한 앞으로 handcraft기반의 연구와 딥 러닝 기반의 연구들이 서로 영향을 주고 받으며 발전해 나갈 것이라 생각된다.

서지기타정보

서지기타정보
청구기호 {DCS 17011
형태사항 vii, 67 : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 유종빈
지도교수의 영문표기 : Hyun Seung Yang
지도교수의 한글표기 : 양현승
수록잡지명 : "Sorted Consecutive Local Binary Pattern for Texture Classification". IEEE Transactions on Image Processing, v.24. no.7., pp.2254-2265(2015)
수록잡지명 : "Locality-preserving descriptor for robust texture feature representation". Neurocomputing, v.214, pp.729-738(2016)
학위논문 학위논문(박사) - 한국과학기술원 : 전산학부,
서지주기 References : p. 57-64
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서