In continual learning, many classifiers use softmax function to learn confidence. However, numerous studies have pointed out its inability to accurately determine confidence distributions for outliers, often referred to as epistemic uncertainty. This inherent limitation also curtails the accurate decisions for selecting what to forget and keep in previously trained confidence distributions over continual learning process. To address the issue, we revisit the effects of masking softmax function. While this method is both simple and prevalent in literature, its implication for retaining confidence distribution during continual learning, also known as stability, has been under-investigated. In this paper, we revisit the impact of softmax masking, and introduce a methodology to utilize its confidence preservation effects. In class- and task-incremental learning benchmarks with and without memory replay, our approach significantly increases stability while maintaining sufficiently large plasticity. In the end, our methodology shows better overall performance than state-of-the-art methods, particularly in the use with zero or small memory. This lays a simple and effective foundation of strongly stable replay-based continual learning.
연속 학습에서, 많은 모델들은 소프트맥스 함수를 분류기로 사용한다. 하지만 최근 여러 논문에서 소프트 맥스가 이상치에 대한 신뢰도를 잘못 판단한다는 점을 지적한다. 이러한 소프트맥수 함수의 내재적 한계는 연속 학습에서 치명적인 망각을 일으키는 주 원인이 된다. 이 문제를 해결하기 위해 비대칭적으로 마스킹한 소프맥스 함수의 효과를 재검토한다. 이는 최근 논문에서 널리 사용되고 있지만, 연속 학습에서 신뢰도 분포에 어떤 영향을 미치는지 조사한 논문은 별로 없었다. 본 논문에서는 소프트맥스 마스킹의 영향을 재 검토하고, 그 신뢰도 보존 효과를 최신 방법론에 활용하기 위한 방법론을 제안한다. 메모리 리플레이가 있거나 없는 연속 학습 벤치마크에서 이 논문의 접근방식은 연속 학습의 안정성을 크게 향상시킨다. 특히 이 논문의 접근법은 최첨단 방법보다 전반적으로 더 나은 성능을 보여준다. 계산적으로 단순한 변화만으로 연속 학습에 효과적으로 기여할 수 있다.