Image-to-image translation aims to learn the mapping between input image and output image. There are two cases for I2I translation: one-to-one mapping for the pair data and collection-to-collection mapping with no information provided as to which image matches which image from another domain. Most of the state-of-the-art approaches are based on GANs. Although GANs have been successful in the image generation field, training process instabilities, such as extreme sensitivity of loss convergence and mode collapse, are well-known disadvantages. In this paper, we propose to separate the internal attributes into shared space and domain-specific space by using autoencoder only, except for GANs. From this approach, we introduce a novel ways to translate images based on disentangled representations. Also, we compare the results from our model with the Bengio's to show our competitive performance.
이미지 간 스타일 변환은 컴퓨터 비전의 한 부류이며, 입력 이미지와 출력 이미지 간의 매핑을 학습하는 것이다. 이미지 변환은 크게 쌍으로 주어진 데이터에 대한 일대일 매핑과 도메인으로 주어진 데이터 셋에 대한 다대다 매핑으로 분류되는데, 대다수의 논문들은 GAN을 기반으로 하기 때문에 학습과 수렴이 어렵다는 단점이 있다. 본 논문은 GAN 구조 없이 단일 오토인코더만을 사용하여 쌍으로 주어진 이미지에 대하여 공통 특성과 도메인 고유 특성을 구별하여 추출하고, 이를 기반으로 다른 도메인으로 이미지를 변환시키는 알고리즘을 제안한다. 또한, 실험을 통해 이미지 변환에 대한 최신 기법보다 뛰어난 성능을 가짐을 확인한다.