A main trend of recent computer animation is reusing existing motion data to produce a new animation. However, most of proposed retargeting approaches mainly focus on articulated body motions. In this thesis, we present a novel example-based approach for the cloning facial expression of a source model to a new model while reflecting the characteristic features of the new model in a resulting animation.
Our method adopts an example-based approach. Given the source example models and their corresponding target example models created by an animator, we parameterize the target example models using the source example models and predefine the weight functions for the parameterized target example models based on radial basis functions. At runtime, given a source model, we compute the parameter vector of the new model to evaluate the weight functions for the target example models at their parameter vectors and obtain the new model by blending them with respect to their weight values. The resulting animation preserves the facial expressions of the source model as well as the characteristic features of the new model. Our approach provides the real-time performance to be applied to the applications such as video games and internet broadcasting.
본 논문은 기존의 3차원 가상캐릭터의 얼굴 표정 애니메이션 데이터를 새로운 얼굴 모델에 효과적으로 적용시키는 표정 재적용(retargeting) 기법을 제안한다. 표정 재적용에 있어 핵심이 되는 것은 주어진 원본 애니메이션이 담고 있는 표정의 변화를 포착함과 동시에 새로운 얼굴 모델이 지니는 특유의 성질들을 잘 반영하는 것이다. 본 연구에서는 원본 및 새 얼굴 모델에 대해 각각 예제 표정 모델들을 정의하고, 이들을 블랜딩(blending) 기법으로 결과 애니메이션을 얻는 방법을 통해 이를 해결한다. 먼저, 주어진 원본 예제 모델들을 원본 중립 표정 모델과의 차이 값을 매개변수로 하여 새로운 예제 모델들을 매개변수 공간 상에 위치시킨 후 새로운 예제 모델마다 정의한 가중치 함수로부터 얻은 가중치 값만큼 새로운 예제 모델들을 섞어서 새로운 얼굴 표정을 만들어낸다.
본 연구는 3차원 가상 캐릭터의 사실적인 표정 애니메이션을 제작함에 있어 기존에 이미 제작된 다른 캐릭터의 얼굴 표정 애니메이션을 효과적으로 재사용할 수 있는 방법을 제공하여 3차원 애니메이션의 제작 시간을 단축하는데 기여할 수 있다.