The primary objective of image-to-image translation tasks is to learn a mapping function from a source domain to a target domain, maintaining the content while converting the appearance similar to target domain. Also, continual learning aims to learn the complete knowledge for a set of tasks when each task is presented sequentially. I propose the unified approach for two distinct tasks based on the contrastve learning, exploring the inherent invariance properties in both tasks. Specifically, for image translation tasks, the input and output image can regarded as two different views of the same instance, as they share the contents but have different appearance. Likewise, the conitnual learning involves two different views of the same data, provided by the current model and the previous model. In both tasks, enhancing shared information between the two different views is crucial. Hence, I propose the contrastive learning based methodologies to guide the model to learn the desired representation. For the image translation tasks, I present three different approaches. Firstly, I focus on the diverse contrastive semantic relation of the image patches. I propose the consistency of the patch-wise semantic relation, and the hard negative mining strategy. Secondly, I suggest the deep metric learning for the CT denoising, focusing on the invarinace property between the low-dose and high-dose CT images. Lastly, I explore the invariance of the topology-aware graph features for patch-wise recognition targetted for image translation tasks. For the conitnual learning, I propose the novel approach for prompt-based continual learning, which enhance the correspondence between the features extracted by the current prompt and the previous prompt.
영상 번역학습의 주요 목표는, 소스 도메인에서 대상 도메인으로의 변환함수를 학습하여 주어진 영상의 내용을 보존하면서도 영상의 외관을 대상 도메인과 유사하게 변환하는 것이다. 또한, 연속학습은 순차적으로 주어지는 task들에 대해서, 이전 task를 잊어버리지 않으면서도 새로운 task를 지속적으로 학습하는 것을 목표로 한다. 본 논문에서는 영상 번역학습 및 연속학습에 내재되어 있는 불변성 특징에 대한 고찰로부터, 두 학습 방법론에 대한 통합적인 접근법을 제시한다. 구체적으로, 이미지 번역학습은 입력 및 출력 영상을 동일한 인스턴스의 서로 다른 증강 영상으로 볼 수 있다. 즉, 두 영상은 동일한 내용이되 서로 다른 외관을 가지고 있다. 마찬가지로, 연속학습에서는, 현재 모델과 이전 모델이 동일한 데이터에 대하여 서로 다른 특성을 제시하는 과정이 내포된다. 두 학습방법론 모두 두가지 다른 관점 간에 공유되는 정보를 강화하는 것이 중요하다. 이에 따라, 본 논문에서는 대조적 학습방법에 기반하여, 인공신경망이 공유 정보와 관련된 특성을 집중적으로 학습하도록 하는 방법론을 제시한다. 영상 번역학습에 대해서는 세가지 다른 접근방식을 제시한다. 첫번째로, 영상패치 간의 다양한 대조적 의미관계에 초점을 맞춘다. 영상 패치 간 의미론적 관계의 인관성과 고난도의 네가티브 마이닝 방법을 제안한다. 두번째로, CT영상의 잡음제거를 위한 심층 메트릭 학습을 제안하며, 저선량 및 고선량 CT 영상간의 불면성 특성을 고찰한다. 마지막으로, 그래프신경망을 활용한 위상인식표현 기반의 새로운 영상 번역학습 방법론을 제안한다. 연속학습과 관련해서는, 프롬프트 기반의 연속학습에 집중하여, 현재 프롬프트와 이전 프롬프트에서 추출한 특징간의 연관성을 강화하는 새로운 방법론을 제안한다.