Semantic segmentation, a crucial task in computer vision, classifies pixels in an image into predefined set of objects for a diverse range of applications including autonomous driving. Adverse conditions, in particular due to fog, pose significant challenges to the models trained on clean data for autonomous driving. Unsupervised Domain Adaptation (UDA) methods aimed to address these challenges have struggled with large domain gaps caused by fog-induced shifts. Additionally, fog makes it difficult for a model to distinguish boundaries between classes clearly. Toward overcoming these challenges, our study introduces a novel framework utilizing auxiliary domains — foggy source and clean target. We leverage the foggy source to adapt the model to foggy conditions smoothly while we exploit the clean target to impart knowledge about diverse data styles. Additionally, we address class boundary blurring in foggy images through inter-class contrast adaptation (ICCA). Our approach achieves state-of-the-art performance by effectively utilizing auxiliary domains and ICCA in standard settings even with a lightweight baseline.
컴퓨터 비전에서 중요한 작업인 시맨틱 분할은 이미지의 픽셀을 미리 정의된 객체 집합으로 분류하여 자율 주행을 비롯한 다양한 애플리케이션에 활용된다. 안개와 같은 악조건은 자율주행을 위해 깨끗한 데이터로 학습된 모델이 장면을 이해하는데 어려움을 준다. 비지도 도메인 적응(UDA) 방법은 이러한 문제를 해결하기 위해 사용되었지만, 안개로 인해 발생하는 큰 도메인 격차로 인해 잘 수행되지 않는 단점이 존재한다. 또한 안개는 모델이 클래스 간 경계를 명확하게 구분하기 어렵게 만든다. 이러한 문제를 극복하기 위해 본 연구에서는 foggy source와 clean target이라는 보조 도메인을 활용하는 새로운 프레임워크를 제안한다. foggy source를 활용하여 모델을 포그 조건에 원활하게 적응시키고, clean target을 활용하여 다양한 데이터 스타일에 대한 지식을 전달한다. 또한 클래스 간 대비 적응(ICCA)을 통해 안개가 낀 이미지에서 클래스 경계가 흐려지는 문제를 해결하고자 한다. 이러한 접근 방식은 가벼운 baseline에서도 표준 설정에서 보조 도메인과 ICCA를 효과적으로 활용함으로써 최첨단 성능을 달성하였다.