서지주요정보
Unbalanced GANs: pre-training the generator of generative adversarial network using variational autoencoder = Unbalanced GANs: 베이지안 오토인코더를 이용한 적대적 생성 신경망 사전 학습 방법론
서명 / 저자 Unbalanced GANs: pre-training the generator of generative adversarial network using variational autoencoder = Unbalanced GANs: 베이지안 오토인코더를 이용한 적대적 생성 신경망 사전 학습 방법론 / Hyungrok Ham.
발행사항 [대전 : 한국과학기술원, 2021].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8037005

소장위치/청구기호

학술문화관(문화관) 보존서고

MCS 21037

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

In this paper, we propose Unbalanced GANs, which pre-trains the generator of the generative adversarial network using variational autoencoder. By pre-training the generator, we prevent the discriminator's fast convergence at early epochs and show the generator's stabilized training. Furthermore, we improve the quality of the generated images through balancing the generator and the discriminator at early epochs. We apply our method to other GANs and find that Unbalanced GANs reduce mode collapses. We also show that Unbalanced GANs outperform VAE-GAN and ordinary GANs in terms of stabilized learning, faster convergence, and better image quality at early epochs.

이 논문에서는 베이지안 오토인코더를 사용하여 적대적 생성 신경망의 생성 모델을 사전 학습하는 방법론을 제안한다. 생성 모델을 사전 학습함으로써 학습 초기에는 판별 모델의 빠른 수렴을 방지할 수 있으며, 생성 모델의 안정적인 훈련을 가능하게 한다. 또한, 학습 초기에 생성 모델과 판별 모델을 균형적으로 학습시킴으로써 생성되는 이미지의 품질이 향상되는 것을 보였다. 더 나아가, 이 논문에서 제시한 방법론을 다른 형태의 적대적 생성 신경망에 적용하는 실험을 진행하였고, 제시한 방법론이 적대적 생성 신경망의 모드 붕괴를 감소시킨다는 것을 발견하였다. 이와 동시에 학습 초기의 안정성, 빠른 수렴 속도, 이미지의 품질 향상 측면에서 제시한 방법론이 우수하다는 것을 보여주었다.

서지기타정보

서지기타정보
청구기호 {MCS 21037
형태사항 iii, 32 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 함형록
지도교수의 영문표기 : Daeyoung Kim
지도교수의 한글표기 : 김대영
Including Appendix
학위논문 학위논문(석사) - 한국과학기술원 : 전산학부,
서지주기 References : p. 28-30
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서