The Periodic AutoEncoder aims to identify the periodicity of motion, resulting in the generation of a latent that aids the effective training of neural networks. garment simulation datasets also have periodic patterns, thus It has opportunities for expansion on this domain. However, in contrast to motion data, garment data has high dimension, and each vertex composing the garment has interactions. As a result, training a Periodic AutoEncoder directly on raw garment simulation data presents daunting obstacles. To address this issue, we employ a Fully Convolutional Mesh Autoencoder. This Autoencoder helps to reduce dimension by representing complex garments as simplified graphs. In this thesis, we first validate the effectiveness of the Periodic AutoEncoder using a garment simulation dataset. We accomplish by comparing the reocnstruction of autoencoder latent and the ground truth. Subsequently, we use this latent to train neural networks and analyze the training outcomes to evaluate the potential of the Periodic AutoEncoder with the garment datasets.
기존의 주기적 오토인코더는 모션의 주기성을 학습하여, 네트워크가 보다 성능 좋은 결과물을 낼 수 있도록 학습을 돕는 오토인코더의 일종이다. 의류 시뮬레이션 데이터 역시 움직임에 주기성을 지니고 있기에, 확장의 가능성이 존재한다. 그러나 모션과 다르게 의류는 데이터 차원의 크기가 크고, 의류 메쉬를 구성하는 버텍스 간의 상호작용이 존재하므로, 주기적 오토인코더를 가공되지 않은 의류 시뮬레이션 데이터로 학습시키는 것에는 어려움이 따른다. 해당 문제를 해결하기 위해 도입한 것이 그래프를 사용한 오토인코더로, 복잡한 의류 메쉬를 간단한 그래프 형식의 데이터셋으로 표현하여 디멘션 축소에 도움을 준다. 본 논문에서는, 해당 오토인코더와 주기적 오토인코더를 통해 축약된 결과물이, 다시 재구성되었을때 원본 데이터와의 차이를 통해 주기성 오토인코더가 의류 데이터를 취급하는 것의 유효성을 확인하고, 실제 네트워크의 학습 데이터로 사용하여 결과를 분석하는 것으로 활용 가능성에 대해 탐구하고자 한다.