서지주요정보
Data-driven facial animation : expression cloning and capturing = 데이터 구동 얼굴 애니메이션 : 표정 복제 및 포착
서명 / 저자 Data-driven facial animation : expression cloning and capturing = 데이터 구동 얼굴 애니메이션 : 표정 복제 및 포착 / Bong-Cheol Park.
발행사항 [대전 : 한국과학기술원, 2007].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8018597

소장위치/청구기호

학술문화관(문화관) 보존서고

DCS 07032

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

As facial animation databases have been becoming rich, synthesis of facial animations by reusing existing animations has naturally attracted much attention in computer graphics. Keeping pace with this trend, we present a novel data-driven approach to facial animation consisting of expression cloning and expression capturing. The input to expression cloning can be either two sets of corresponding key models or two independent example animations for source and target face models. Given the source and target key models, we automatically extract a set of coherently-moving regions containing facial features to transfer the source face expressions into the target face model region by region. We skip the key model preparation in blend shape-based facial expression cloning by solving the following problem: Given an input animation together with two independent example animations for source and target face models, respectively, transfer the facial expressions in the input animation frame by frame from the source face model to the target face model. In order to provide the input example animations to expression cloning, we present a vision-based approach to capturing human face movements while improving time complexity for stereo matching and adopting elasticity theory for skin deformations.

최근 얼굴 애니메이션 데이터베이스의 양과 질이 날로 높아짐에 따라, 기존의 애니메이션 데이터를 재활용하여 원하는 얼굴 애니메이션을 손쉽게 생성하는 방식이 컴퓨터 그래픽스 분야에서 주목받고 있다. 이러한 최신 경향을 따라서, 본 논문에서는 표정 복제와 표정 포착, 두 부분으로 이루어진 새로운 데이터구동 얼굴 애니메이션 방식을 제안한다. 표정 복제의 입력은 소스 키모델과 그에 해당하는 타겟 키모델의 집합이 될 수도 있고, 소스 모델과 타겟 모델 각각에 대한 독립적인 예제 표정 애니메이션이 될 수도 있다. 키모델이 입력으로 주어지면, 응집되게 움직이는 특징적인 얼굴 영역들을 자동으로 추출하고 표정 복제가 각 영역별로 이루어 지도록 한다. 또한 다음 문제를 해결함으로써 혼합에 기반한 얼굴 표정 복제에서 키모델 준비과정을 생략할 수 있음을 보인다: 소스 모델과 타겟 모델, 각각에 해당하는 독립된 예제 애니메이션으로부터 입력 애니메이션의 소스 모델 표정을 타겟 모델로 매 프레임마다 복제한다. 이러한 예제 애니메이션을 생성하기 위하여 실제 사람의 얼굴 움직임을 포착할 수 있는 컴퓨터 비젼 기술을 제안한다. 기존 방식과 비교하여 스테레오 매칭에 걸리는 시간을 줄이고, 사실적인 피부 움직임을 위해 탄성 이론을 도입한다.

서지기타정보

서지기타정보
청구기호 {DCS 07032
형태사항 vii, 68 p. : 삽화 ; 26 cm
언어 영어
일반주기 저자명의 한글표기 : 박봉철
지도교수의 영문표기 : Sung-Yong Shin
지도교수의 한글표기 : 신성용
수록잡지명 : "A feature-based approach to facial expression cloning". Computer animation and virtual worlds , 16(3-4), 291-303 (2005)
학위논문 학위논문(박사) - 한국과학기술원 : 전산학전공,
서지주기 참고문헌 : p. 65-68
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서