Convolutional Neural Networks (CNNs) provides excellent performance when used for image classification. The classical method of training CNNs is by labeling images in a supervised manner as in "input image belongs to this label" (Positive Learning; PL), which is a fast and accurate method if the labels are assigned correctly to all images. Accurately labeling a large number of images is daunting and time-consuming, occasionally yielding mismatched labeling. When these noisy labels are present, training with PL will provide wrong information, thus severely degrading performance. Robust training with noisy data is of great practical importance because, when collecting data via online for custom dataset, often there exists data that corresponds to mismatched labels. When robust training with noisy data becomes possible, trimming and evaluating the data is unnecessary, achieving efficiency in time and human resources. To address this issue, we propose an indirect learning method called Negative Learning (NL), in which the CNNs are trained using a complementary label as in "input image does not belong to this complementary label." Because the chances of selecting a true label as a complementary label are low, NL decreases the risk of providing incorrect information. In this dissertation, we demonstrate the distinct advantage of NL for noisy data classification and further propose development complementing NL method.
컨볼 루션 신경망 (CNN)은 이미지 분류에 사용할 때 탁월한 성능을 제공한다. CNN을 훈련하는 고전적인 방법은 "입력 이미지가 이 라벨에 속합니다" (Positive Learning; PL)에서와 같이 지도 방식으로 이미지에 라벨을 지정하는 것이다. 이는 라벨이 모든 이미지에 올바르게 할당 된 경우 빠르고 정확한 방법이다. 많은 수의 이미지에 정확하게 라벨을 지정하는 것은 어렵고 시간이 많이 걸리며 때때로 일치하지 않는 라벨이 생성된다. 이러한 노이지한 라벨이 있는 경우 PL을 사용한 학습은 잘못된 정보를 제공하므로 성능이 심각하게 저하된다. 사용자 지정 데이터 세트 제작을 위해 온라인을 통해 데이터를 수집 할 때 종종 일치하지 않는 라벨에 해당하는 데이터가 존재하기 때문에 이런 데이터를 사용한 강력한 훈련 방식은 실질적으로 매우 중요하다. 노이지한 데이터를 사용한 강력한 훈련이 가능해지면 데이터를 거르고 평가할 필요가 없으므로 시간과 인적 자원의 효율성을 달성 할 수 있다. 이 문제를 해결하기 위해 우리는 Negative Learning (NL)이라는 간접 학습 방법을 제안한다. 여기서 CNN 은 "입력 이미지는 이 complementary 라벨에 속하지 않습니다." 에서와 같이 complementary 라벨을 사용하여 훈련된다. Complementary 라벨을 Ground Truth 라벨로서 택할 확률이 낮아짐으로써, NL은 잘못된 정보를 제공 할 위험을 줄인다. 이 논문에서 노이지한 데이터 학습을 위한 NL의 뚜렷한 장점을 입증하고 NL 방법을 보완하는 여러 방법을 제안한다.