Neural networks often learn to make predictions that overly rely on spurious correlations existing in the dataset, which causes the model to be biased. Previous work tackles this issue by using explicit labeling on the spuriously correlated attributes or presuming a particular bias type. To bypass such costly supervision on the spurious attribute, we focus on developing a weaker form of supervision. We propose a weaker form of supervision, weakly supervised, and semi-supervised approaches to mitigate spurious correlation for classification and image generation. For classification, we first utilize a cheaper yet generic form of human knowledge, which can be widely applicable to various types of bias: reliance of neural networks on spurious correlation is most prominent during the early phase of training. We then propose a semi-supervised approach based on spurious attribute estimation to bridge the performance gap between weakly supervised and fully-supervised approaches. Finally, for image generation, we leverage a biased classifier to characterize the spurious correlation in the generative model as a weaker form of supervision. We then encourage the generator to synthesize minority samples that conflict with the spurious correlation.
데이터셋에 허위 상관관계가 존재하는 경우 딥 러닝 모델은 의도했던 결정 규칙을 학습하는 대신 허위 상관 관계에의존한결정규칙을학습하는경우가있다. 기존 연구들의 경우 허위 상관관계에 대한 라벨을 통해 이러한 현상을 완화하려 하였으나, 이러한 허위 상관관계에 대한 라벨의 경우 그 라벨링에 대한 비용이 크다. 본 논문에서는 분류 문제 및 생성 문제에 관하여 딥 러닝 모델의 허위 상관관계 완화에 있어 라벨링에 대한 의존도를 줄이는 세 가지 방법론을 제시하고자 한다. 먼저 딥 러닝 분류기의 허위 상관관계를 완화하기 위해, 허위 상관관계를 가지는 속성 정보 없이 이를 완화하는 방법론인 Learning from Failure (LfF)를 다룬다. 다음으로는, 적은 양의 허위 상관관계에 대한 속성 정보를 통해 더 효과적으로 허위 상관관계를 완화할 수 있는 방법론인 Spread Spurious Attribute (SSA)를 소개한다. 마지막으로 생성 모델에서의 허위 상관관계를 완화하기 위한 방법론인 Biased Classifier to Fair Generation (BC2FG)을 제시한다.