Real-time animation of human-like characters is an active research area in computer graphics. The conventional approaches have, however, hardly dealt with the rhythm and energy of motions, which are essential in handling and generating rhythmic motions of which the styles match those of background sound signals. In this thesis, we present a novel scheme for synthesizing a new rhythmic motion for an input sound signal from unlabelled example motions. Our scheme first captures the motion beats and variations of music energy from the example motions and their accompanying sound signals. We extract the basic movements and their transitions, and then train their music-energy observation probabilities. By using those data, our scheme then constructs a movement transition graph that represents the example motions. Given an input sound signal, our scheme finally synthesizes a novel motion in an on-line manner while traversing the motion transition graph, which is synchronized with the input sound signal and satisfies kinematic constraints given explicitly and implicitly. The resulting motion also has a proper style that matches that of the sound signal. Through experiments, we have demonstrated that our scheme can effectively produce a variety of rhythmic motions.
인간형 캐릭터의 실시간 애니메이션은 컴퓨터 그래픽스에서 활발히 연구되어 왔다. 그런데, 기존의 연구들은 주어진 소리 신호에 맞는 스타일을 가지면서도 동기화된 율동을 생성하는 데에 필수 요소인 동작의 리듬과 에너지에 대해서는 거의 다루지 않고 있다. 본 연구에서 수작업을 거치지 않은 예제 동작들을 이용하여 주어진 소리 신호에 맞는 새로운 율동을 생성하는 기법을 제안한다. 먼저 예제 동작과 배경 소리 신호로부터 동작 비트와 음악 에너지를 분석하고 예제 동작에서 기본 동작들을 추출한 뒤, 그들의 전이 관계 및 음악 에너지 관측 확률을 분석한다. 이를 이용하여 예제 동작들을 나타내는 동작 전이 그래프를 구성한다. 입력 소리 신호가 주어지면 전이 그래프를 온라인으로 순회하여 새로운 동작을 생성한다. 이 때, 결과 동작은 입력 소리 신호에 동기화되고 지정된 운동학적 제약 조건을 만족하며, 입력 소리 신호에 맞는 스타일을 갖는다. 실험을 통해 제안된 기법이 다양한 율동의 생성에 효과적으로 사용될 수 있음을 보였다.