Recently, users encounter 3D human motion easily than before according to computer graphics development. Real-time motion generation is often required for interactivity in some motion generation fields such as games. Data-driven generative models for motion demand enough amount of motion clips as a training data set for each type of motion, and it is raised as a problem when the model should generate unusual motions whose motion clips are barely found. Therefore, in this research, we propose a model named Labeled Motion VAEs(L-MVAE). Existing MVAE, or Motion VAEs, uses the latent space of conditional variational autoencoder for reinforcement learning to synthesize desired 3D human motion and can generate motions in real-time. In L-MVAE, label information of motions is added to MVAE with a concept of label distribution. L-MVAE can synthesize motions in real-time likewise, and it produces high-quality motions even with a relatively small size of training data set. The performance of the proposed model is compared with the existing MVAE using the task in which a character moves to a destination.
최근 컴퓨터 그래픽스 기술의 발전에 따라, 영화, 게임, 시뮬레이션 등 다양한 분야에서 3차원 인체 동작을 쉽게 접할 수 있다. 3차원 인체 동작을 생성하는 모델은 학습할 때 생성하려는 동작마다 충분한 양의 학습 데이터를 요구하는데, 일부 동작의 경우 데이터가 충분하지 않아 학습에 지장이 발생할 수 있다. 본 연구에서는 이전에 연구된 동작 오토 인코더(Motion VAEs)를 응용하여 이러한 문제를 해결하고자 한다. 기존의 동작 오토 인코더는 변분 오토 인코더에서 잠재 공간의 정보를 강화 학습에 이용하여 원하는 동작을 생성하며, 실시간 동작 생성이 가능하여 상호작용이 요구되는 게임 등의 분야에 적용될 수 있다. 제안하는 모델은 기존 동작 오토 인코더에 동작의 레이블 정보를 더하여 더 적은 데이터로도 비슷하거나 더 뛰어난 수준의 3차원 인체 동작을 생성할 수 있는 것으로 보여진다. 기존 모델과의 성능 비교는 목적지를 향해 이동하는 동작 생성을 통해 진행하였다.