In this thesis, we present a novel example-based paradigm for producing motions of various characters. With a rich repertoire of captured motions, our paradigm extends previous methods for motion synthesis in two directions: First, we produce realistic human motions guided by monocular videos, which are a most common source of human motions. Second, we apply those motions to diverse characters with different structures. After processing a input video, we select a pre-captured motion clip called a "reference motion" from a motion library, and then compute the sequence of body configurations of a character based on spacetime formulation. The root trajectory is estimated by using kinematic constraints and dynamic property of character. After synthesizing human motions from monocular videos, the motion is cloned frame by frame to a target character based on scattered data interpolation. To do this, we exploit the correspondence between keypostures of the source character and those of the target character. Through experiments, we demonstrated that our scheme can effectively produce a variety of motions for character animation.
본 논문에서는 다양한 캐릭터들의 동작을 쉽게 얻기 위하여 미리 포착된 동작들을 활용하는 새로운 동작 생성 방법을 제안한다. 제안된 방법은 단안영상에서 인간형 관철체의 동작을 합상할 뿐만 아니라, 합성된 동작을 구조가 다른 다양한 다른 캐릭터에 적용한다. 먼저 입력 영상을 분석한 다음, 미리 구성된 동작 라이브러리로부터 가장 유사한 "참조동작"을 선택한다. 선택된 동작을 입력영상에 나타난 관절 위치들에 따라 시공간 제약조건 공식화를 기반으로 변형한다. 변형된 동작에 최상위 관절의 정보를 참조동작의 동적 특성이나 시공간 제약조건에 따라 추정하여 인간형 관절체의 동작을 생성한다. 생성된 동작은 본 논문에서 제안하는 분산 데이터 보간 기반 "동작 복제" 기법을 통해서 다양한 캐릭터에 적용된다. 이 과정은 자동으로 뽑힌 원본 캐릭터의 키포스쳐와 애니메이터가 생성한 대상 캐릭터의 키포스쳐간의 대응 관계를 기반으로 이루어진다. 실험을 통해 제안된 기법이 다양한 캐릭터의 동작 생성에 효과적으로 사용될 수 있음을 보였다.