Although motion capture technologies or manual keyframing guarantee high quality results, every possible motion data cannot be created with those methods because it is highly time consuming. Therefore, a few crucial animations are created and then connected with motion blending algorithms to produce motion sequences needed for the final product. However, conventional motion blending algorithms based on interpolation struggle to produce natural locomotion in some cases. To overcome this limitation, we propose a data-driven motion refinement framework based on recurrent neural networks(RNN). Our framework takes a naively stitched locomotion sequence as input, and refines it to a natural locomotion sequence. We also designed a novel data pair generation based on nearest neighbor search. After training, our model produces higher quality results compared to a conventional motion blending algorithm by adjusting the steps rather than simply interpolating positions or rotations. The trained model is also capable of refining various lengths of motion sequences, which allows it to be applied to many applications that require natural motion stitching.
본 연구에서는 순환 신경망을 기반으로 캐릭터의 움직임을 자연스럽게 수정해주는 방법론을 제안한다. 단순하게 이어진 보행 움직임이 입력으로 주어지면, 네트워크는 이를 수정해 자연스럽게 이어진 보행 움직임을 출력한다. 새로운 데이터쌍 생성 알고리즘으로 만들어진 데이터를 통해서 네트워크는 중간이 불연속적인 보행 움직임이 주어졌을 때, 각 프레임의 자세들을 부드러운 전환 동작으로 바꾸도록 학습한다. 본 연구에서 제안한 방법론은 단순히 보간법으로 위치와 각도를 수정하는 것이 아니라 자연스럽게 발을 딛는 동작을 만들기 때문에 기존의 움직임 연결 방법보다 더 자연스러운 연결 움직임을 만들어 낸다. 또한, 다양한 길이의 보행 움직임에 적용할 수 있기 때문에, 두 개의 보행 움직임을 자연스럽게 이어야 하는 경우에는 모두 사용이 가능하다.