서지주요정보
Enhancing incremental few-shot learning algorithm : good embedding is all we need = 좋은 임베딩을 이용한 점진적인 소수 샷 학습 알고리즘 성능 개선
서명 / 저자 Enhancing incremental few-shot learning algorithm : good embedding is all we need = 좋은 임베딩을 이용한 점진적인 소수 샷 학습 알고리즘 성능 개선 / Namjin Lee.
발행사항 [대전 : 한국과학기술원, 2023].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8040728

소장위치/청구기호

학술문화관(도서관)2층 학위논문

MEE 23021

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

Few-shot class-incremental learning (FSCIL) aims to enable a neural network to learn new information well from a few data samples when new data is continually provided. In FSCIL, it is very important to prevent catastrophic forgetting, which is lost of existing knowledge. FSCIL method consists of two stages, pretraining and fine-tuning. In pretraining stage, neural network is trined with a plenty of samples of base classes. In fine-tuning stage, the pretrained network is fine-tuned with a few samples of novel classes. Various algorithms suggested until now generally focus on improvement in fine-tuning stage. However, according to F2M, when using prototype as classifier, it performs better than existing algorithms even without fine-tuning. This discovery raised a doubt on the effect of fine-tuning, which make us focus on pretraining stage. Consequently, when we try to improve the performance in pretraining stage, the performance is superior to existing algorithms even when the model is not fine-tuned. Based on this result, we conclude that Making a good embedding in pretraining is much more effective than trying to teach new data well in fine-tuning.

점진적인 소수샷 학습은 매번 새로운 데이터가 지속적으로 들어올 때, 적은 양의 데이터가 들어오더라도 새로운 정보를 잘 학습할 수 있도록 하는 방법이다. 이 때 새로운 데이터를 학습시키는 과정에서 이미 학습 된 데이터를 잃어버리는 파괴적 망각이 발생하지 않도록 하는 것이 매우 중요하다. 점진적 소수샷 학습은 두 단계로 구성되는데 첫번째는 다량의 데이터를 이용해 모델을 사전학습 시키는 것이고, 두번째는 새로운 데이터가 조금씩 들어올 때마다 이 소량의 데이터를 이용해 사전학습이 완료된 모델의 신경망을 미세조정 하는 것이다. 지금까지 제안된 다양한 알고리즘은 주로 미세조정 단계에서의 성능 향상을 노린다. 하지만 F2M 논문에 따르면, 미세조정 없이 단순히 프로토타입을 분류기로 사용했을 때, 기존의 알고리즘들 보다 더 뛰어난 성능을 나타낸다. 이러한 사실에 기반하여 점진적인 소수샷 학습 과정에서 미세조정 과정의 효 과에 의문을 느끼고 사전학습 단계에서 성능 향상을 꾀하여 보았다. 결과적으로 사전학습 단계에서의 성능 향상을 꾀했을 때, 미세조정을 하지 않은 상태에서조차 기존의 알고리즘보다 더 좋은 성능을 보였다. 이러한 결과를 바탕으로 점진적 소수샷 학습 시 미세 조정에서 새로운 데이터를 잘 학습시키도록 노력하는 것보다 사전학습 단계에서 좋은 임베딩을 구성하는 것이 더 효과적이라는 결론을 내렸다.

서지기타정보

서지기타정보
청구기호 {MEE 23021
형태사항 iv, 19 p. : 삽도 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 이남진
지도교수의 영문표기 : Jaekyun Moon
지도교수의 한글표기 : 문재균
학위논문 학위논문(석사) - 한국과학기술원 : 전기및전자공학부,
서지주기 References : p. 16-17
주제 Few-shot class-incremental learning
Catastrophic forgetting
Pretraining
Fine-tuning
점진적인 소수샷 학습
파괴적 망각
사전학습
미세조정
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서