In this thesis, we present two motion generative models for constructing motion manifold and motion stylization. First, we propose a novel recurrent neural network-based method to construct a latent motion manifold that can represent a wide range of human motions in a long sequence. Our model create compact and versatile motion manifold that allows for generating new motions by performing random sampling and algebraic operations, such as interpolation and analogy, in the latent motion manifold. Second, we propose the motion style transfer model that can control the motion style of individual body parts. Inputs to our framework are one source motion for content, and multiple target motions, each for stylizing a different body part, and its output is a content-preserving motion stylized by body part. The advantages of our framework are thus it can generate an extensive variety of motions by stylizing them by body part and can allows style interpolation by body part, which further enhances its usefulness. In addition, our framework can be easily integrated with other motion generator. We demonstrate a real-time motion style transfer by integrating with an existing motion controller.
이 논문에서는 모션 매니폴드 구성 및 스타일화를 위한 두 가지 모션 생성 모델을 소개한다. 첫째, 긴 시퀀스에서 광범위한 인간 동작을 나타낼 수 있는 잠재 동작 매니폴드를 구성하기 위한 새로운 순환 신경망 기반 방법을 제안한다. 우리의 모델은 잠재 모션 매니폴드 상에서 보간 및 아날로지와 같은 대수 연산 그리고 무작위 샘플링 등을 수행하여 새로운 모션을 생성할 수 있다. 둘째, 개별 신체 부위의 모션 스타일을 제어할 수 있는 스타일 전달 모델을 제시한다. 해당 모델은 콘텐츠에 해당하는 하나의 소스 모션과 각각 다른 신체 부위를 스타일링 하기 위한 여러 대상 모션을 입력받아, 신체 부위별로 콘텐츠를 유지하면서 스타일라이즈 된 모션을 생성한다. 따라서 신체 부위별로 스타일링이 가능, 다양한 모션을 생성할 수 있고 스타일을 보간할 수 있어 유용성을 더욱 높일 수 있다. 또한, 기존의 모션 컨트롤러 등 다른 네트워크들과 쉽게 통합하여 실시간 모션 스타일 전송이 가능하다.