Deep learning shows great performance in many computer vision tasks. However, it suffers catastrophic forgetting when it learns new classes. We propose a class incremental learning method that learns new classes without forgetting the existing classes even when new class data is added. To reduce the forgetting effect of the network, we store exemplars that best approximate the class mean vector of each class and keep the feature mean of the existing classes using the center loss function. Also, the center loss function shows good performance in classification using nearest neighbors search because the features of each class are clustered on Euclidean distance. The proposed method shows better performance than the other method especially when the number of total classes is small.
심층 신경망이 컴퓨터 비젼 분야에서 굉장히 좋은 성능을 보여주고 있지만 이미 학습된 네트워크가 새로운 것들을 추가로 학습하게 되면 이전에 학습했던 것들을 잊어버리는 재난적 망각 현상이 발생한다. 본 연구에서는 계속해서 새로운 클래스의 데이터가 추가될 때에도 기존에 학습 했던 것들을 잊어버리지 않으면서 새로운 것들을 배워나가는 클래스 증가 학습 방법을 제안하였다. 각 클래스의 평균 특징을 가장 잘 나타내는 이미지 전형들을 뽑고 중앙 손실 함수를 추가하여 기존 클래스의 특징 평균을 유지하는 방식으로 네트워크의 망각 현상을 줄이고자 하였다. 또한 중앙 손실 함수는 각 클래스의 특징이 유클리드 거리상에서 뭉쳐있도록 하므로 최근접 이웃 탐색을 이용한 분류에서 좋은 성능을 보여 주었다. 제안한 방법은 특히 전체 클래스의 숫자가 적을수록 기존의 방법보다 좋은 성능을 보여주었다.