서지주요정보
Sparse representation-based human action category recognition using an action-context region-aware dictionary = 행동 및 배경 영역 Dictionary를 이용한 Sparse Representation 기반 인간행동 인식에 관한 연구
서명 / 저자 Sparse representation-based human action category recognition using an action-context region-aware dictionary = 행동 및 배경 영역 Dictionary를 이용한 Sparse Representation 기반 인간행동 인식에 관한 연구 / Jin-Hyon Hwang.
발행사항 [대전 : 한국과학기술원, 2014].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8027175

소장위치/청구기호

학술문화관(문화관) 보존서고

MEE 14154

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

Human action recognition is a core functionality of systems for video surveillance, content-based video indexing, video search, robotics, and human-object interaction. The goal of vision-based human action recog-nition is to determine the action label that best describes the action instance in the video clip automatically. Conventional vision-based systems for human action recognition require the use of subject segmentation tech-nique in order to achieve an acceptable level of recognition effectiveness. However, generic techniques for au-tomatic segmentation that guarantee high performance are currently not available yet. Further, it is important for effective human action recognition to use the features associated with a context region adaptively, as well as localizing the actions. To resolve the problems, this paper proposes a novel sparse representation-based method for human action recognition, which does not require complex human or human action localization for test video clip. To that end, we construct a dictionary for SR-based classification of human actions that con-sists of two split dictionaries: an action region dictionary and a context region dictionary. The action region dictionary aims at characterizing the action regions in a non-segmented test video clip (such as human action region, saliency region), while the context region dictionary aims at characterizing the non- action regions in the test video clip under consideration. That way, we are able to segment, implicitly, action region and context information in a test video clip, thus improving the effectiveness of classification. That way, we are also able to develop a context-adaptive human action recognition strategy. As shown by comparative experimental re-sults obtained for the UCF-50 and UCF-sports Action data set, the proposed method facilitates effective human action recognition, even when testing does not rely on explicit segmentation.

영상 기반의 인간행동 자동인식 기술은 지능형 비디오 감시시스템, 비디오 검색, 원격 환자 관리 및 非 접촉식 인간-컴퓨터 상호작용 시스템 등의 핵심 요소 기술이다. 영상 기반 인간행동 자동인식 기술의 목표는 입력된 영상의 행동특징을 컴퓨터가 자동으로 이해하고 행동분류 중에서 이와 가장 부합하는 행동으로 결정하는 것이다. 통상적인 영상 기반의 인간행동 인식 시스템은 일정 수준 이상의 인식 성능 확보를 위해 행동영역 분리기술을 사용하고 있다. 그러나 다양한 환경(조명의 변호, 배우 별 행동 수행의 차이 등)에서 촬영된 영상으로부터 특정 행동을 높은 성능으로 검출하고 분리해 내는 일반적인 기술은 현존하지 않는다. 아울러 행동을 분리해 내는 것뿐만 아니라 행동이 이루어지는 배경으로부터 추출된 특징 정보를 상황에 따라 이용하는 것 또한 인간행동인식 성능 향상을 위해 중요하다. 이러한 문제를 해결하기 위하여 본 논문에서는 시험용 영상에 복잡한 인간행동 분리 기술을 적용할 필요 없는 새로운 희소표현(Sparse repre-sentation) 기반의 인간 행동인식 기법을 제안한다. 이를 위해 본 논문에서는 두 개의 분리형 사전, 즉 행동영역 특징으로 구성된 사전과 배경영역 특징으로 구성된 사전으로 희소표현 기반의 인간행동인식 분류기를 고안하였다. 제안된 행동 및 배경영역 분리형 사전으로 구성된 희소표현 기반의 분류기를 이용하여 행동영역 분리 기술을 적용하지 않고도 시험용 영상의 행동영역 특징과 배경영역의 특징을 각각 행동영역 사전과 배경영역 사전으로 분리하여 표현할 수 있다. 이런 방법으로 시험용 영상의 행동영역과 배경영역의 특징을 별다른 영역 분리 기술을 적용하지 않고도 함축적으로 분리해 낼 수 있으며 이를 통해 행동인식 성능을 향상시킬 수 있다. 이를 위해 본 논문에서는 배경정보의 유용성 여부를 판단하여 적용하는 배경 적응형 인간행동 인식 방법을 제안한다. 또한 UCF-50 및 UCF-sports action 데이터베이스를 이용한 다양한 비교실험을 통해 제안된 알고리즘의 성능을 검증하였다.

서지기타정보

서지기타정보
청구기호 {MEE 14154
형태사항 iv, 36 p : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 황진현
지도교수의 영문표기 : Yong-Man Ro
지도교수의 한글표기 : 노용만
학위논문 학위논문(석사) - 한국과학기술원 : 전기및전자공학과,
서지주기 References : p. 30-33
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서