In this paper, we propose Unbalanced GANs, which pre-trains the generator of the generative adversarial network using variational autoencoder. By pre-training the generator, we prevent the discriminator's fast convergence at early epochs and show the generator's stabilized training. Furthermore, we improve the quality of the generated images through balancing the generator and the discriminator at early epochs. We apply our method to other GANs and find that Unbalanced GANs reduce mode collapses. We also show that Unbalanced GANs outperform VAE-GAN and ordinary GANs in terms of stabilized learning, faster convergence, and better image quality at early epochs.
이 논문에서는 베이지안 오토인코더를 사용하여 적대적 생성 신경망의 생성 모델을 사전 학습하는 방법론을 제안한다. 생성 모델을 사전 학습함으로써 학습 초기에는 판별 모델의 빠른 수렴을 방지할 수 있으며, 생성 모델의 안정적인 훈련을 가능하게 한다. 또한, 학습 초기에 생성 모델과 판별 모델을 균형적으로 학습시킴으로써 생성되는 이미지의 품질이 향상되는 것을 보였다. 더 나아가, 이 논문에서 제시한 방법론을 다른 형태의 적대적 생성 신경망에 적용하는 실험을 진행하였고, 제시한 방법론이 적대적 생성 신경망의 모드 붕괴를 감소시킨다는 것을 발견하였다. 이와 동시에 학습 초기의 안정성, 빠른 수렴 속도, 이미지의 품질 향상 측면에서 제시한 방법론이 우수하다는 것을 보여주었다.