Few-shot class-incremental learning (FSCIL) aims to enable a neural network to learn new information well from a few data samples when new data is continually provided. In FSCIL, it is very important to prevent catastrophic forgetting, which is lost of existing knowledge. FSCIL method consists of two stages, pretraining and fine-tuning. In pretraining stage, neural network is trined with a plenty of samples of base classes. In fine-tuning stage, the pretrained network is fine-tuned with a few samples of novel classes. Various algorithms suggested until now generally focus on improvement in fine-tuning stage. However, according to F2M, when using prototype as classifier, it performs better than existing algorithms even without fine-tuning. This discovery raised a doubt on the effect of fine-tuning, which make us focus on pretraining stage. Consequently, when we try to improve the performance in pretraining stage, the performance is superior to existing algorithms even when the model is not fine-tuned. Based on this result, we conclude that Making a good embedding in pretraining is much more effective than trying to teach new data well in fine-tuning.
점진적인 소수샷 학습은 매번 새로운 데이터가 지속적으로 들어올 때, 적은 양의 데이터가 들어오더라도 새로운 정보를 잘 학습할 수 있도록 하는 방법이다. 이 때 새로운 데이터를 학습시키는 과정에서 이미 학습 된 데이터를 잃어버리는 파괴적 망각이 발생하지 않도록 하는 것이 매우 중요하다. 점진적 소수샷 학습은 두 단계로 구성되는데 첫번째는 다량의 데이터를 이용해 모델을 사전학습 시키는 것이고, 두번째는 새로운 데이터가 조금씩 들어올 때마다 이 소량의 데이터를 이용해 사전학습이 완료된 모델의 신경망을 미세조정 하는 것이다. 지금까지 제안된 다양한 알고리즘은 주로 미세조정 단계에서의 성능 향상을 노린다. 하지만 F2M 논문에 따르면, 미세조정 없이 단순히 프로토타입을 분류기로 사용했을 때, 기존의 알고리즘들 보다 더 뛰어난 성능을 나타낸다. 이러한 사실에 기반하여 점진적인 소수샷 학습 과정에서 미세조정 과정의 효 과에 의문을 느끼고 사전학습 단계에서 성능 향상을 꾀하여 보았다. 결과적으로 사전학습 단계에서의 성능 향상을 꾀했을 때, 미세조정을 하지 않은 상태에서조차 기존의 알고리즘보다 더 좋은 성능을 보였다. 이러한 결과를 바탕으로 점진적 소수샷 학습 시 미세 조정에서 새로운 데이터를 잘 학습시키도록 노력하는 것보다 사전학습 단계에서 좋은 임베딩을 구성하는 것이 더 효과적이라는 결론을 내렸다.