서지주요정보
Revisiting Softmax masking for stability in continual learning = 비대칭적 소프트맥스 함수를 활용한 이미지 연속 학습 안정성 개선
서명 / 저자 Revisiting Softmax masking for stability in continual learning = 비대칭적 소프트맥스 함수를 활용한 이미지 연속 학습 안정성 개선 / Min-Chan Kwon.
발행사항 [대전 : 한국과학기술원, 2024].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8041897

소장위치/청구기호

학술문화관(도서관)2층 학위논문

MAI 24008

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

In continual learning, many classifiers use softmax function to learn confidence. However, numerous studies have pointed out its inability to accurately determine confidence distributions for outliers, often referred to as epistemic uncertainty. This inherent limitation also curtails the accurate decisions for selecting what to forget and keep in previously trained confidence distributions over continual learning process. To address the issue, we revisit the effects of masking softmax function. While this method is both simple and prevalent in literature, its implication for retaining confidence distribution during continual learning, also known as stability, has been under-investigated. In this paper, we revisit the impact of softmax masking, and introduce a methodology to utilize its confidence preservation effects. In class- and task-incremental learning benchmarks with and without memory replay, our approach significantly increases stability while maintaining sufficiently large plasticity. In the end, our methodology shows better overall performance than state-of-the-art methods, particularly in the use with zero or small memory. This lays a simple and effective foundation of strongly stable replay-based continual learning.

연속 학습에서, 많은 모델들은 소프트맥스 함수를 분류기로 사용한다. 하지만 최근 여러 논문에서 소프트 맥스가 이상치에 대한 신뢰도를 잘못 판단한다는 점을 지적한다. 이러한 소프트맥수 함수의 내재적 한계는 연속 학습에서 치명적인 망각을 일으키는 주 원인이 된다. 이 문제를 해결하기 위해 비대칭적으로 마스킹한 소프맥스 함수의 효과를 재검토한다. 이는 최근 논문에서 널리 사용되고 있지만, 연속 학습에서 신뢰도 분포에 어떤 영향을 미치는지 조사한 논문은 별로 없었다. 본 논문에서는 소프트맥스 마스킹의 영향을 재 검토하고, 그 신뢰도 보존 효과를 최신 방법론에 활용하기 위한 방법론을 제안한다. 메모리 리플레이가 있거나 없는 연속 학습 벤치마크에서 이 논문의 접근방식은 연속 학습의 안정성을 크게 향상시킨다. 특히 이 논문의 접근법은 최첨단 방법보다 전반적으로 더 나은 성능을 보여준다. 계산적으로 단순한 변화만으로 연속 학습에 효과적으로 기여할 수 있다.

서지기타정보

서지기타정보
청구기호 {MAI 24008
형태사항 iii, 16 p. : 삽도 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 권민찬
지도교수의 영문표기 : Junmo Kim
지도교수의 한글표기 : 김준모
Including appendix
학위논문 학위논문(석사) - 한국과학기술원 : 김재철AI대학원,
서지주기 References : p. 13-15
주제 Continual learning
Softmax masking
Image classification
Machine learning
Deep learning
연속 학습
비대칭적 소프트맥스
이미지 분류
기계 학습
심층 학습
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서