There is a phenomenon named catastrophic forgetting, where a neural network forgets information learned from past tasks when being trained for new tasks. Memory-based parameter adaptation (MbPA) has been suggested to address this issue recently by augmenting a neural network with non-parametric, episodic memory. In this framework, trained instances are saved to an experience memory and parameters of the neural network are adapted to some examples stored in memory. The paper has shown MbPA performing a Maximum A Posteriori estimation and attention mechanism is a certain kind of MbPA. In this thesis, we try to improve robustness and complexity of MbPA. Here, we focus on an idea of training a classifier which classifies each problem's input domain. Then we can filter the candidate of context for parameter adaptation to the train set of classified problem. The suggested algorithm, classifier-memory-based parameter adaption, has shown experimental results with improved complexity and comparable (or even better in some setting) performance with MbPA.
Catastrophic Forgetting은 단일 신경망을 여러 문제에 대하여 학습시킬 때, 기존의 문제에 대하여 학습된 정보를 잊어버리는 현상을 말한다. 최근 이를 해결하기 위한 방법으로서, 메모리 기반 설정값 적응 알고리즘이 제시된 바 있다. 선행 논문에서, 메모리 기반 설정값 적응 알고리즘이 Maximum A Posteriori 방식으로 해석될 수 있으며, Attention 알고리즘의 일반적인 확장 이라는 것을 이론적으로 보인 바 있다. 또한 계속학습과 점진학습에서 알고리즘이 잘 동작하는 것을 실험적으로 보였다. 이번 연구에서는 기존의 이론적인 해석들을 그대로 차용할 수 있으면서 효율적으로 동작하며 복잡도를 개선할 수 있는 알고리즘을 고안하고자 하였다. 이 때, 메모리에 저장된 학습 데이터를 이용하여 각 문제 별 데이터 도메인을 분류할 수 있는 분류기를 학습시킬 수 있으며 따라서 설정값 적응을 하기 위한 K개의 근접 이웃을 추출할 때 후보군을 특정된 문제의 학습 데이터를 대상으로만 한정할 수 있음에 착안하여, 분류기-메모리 기반 설정값 적응 알고리즘을 개발하였다. 실험적으로 제시된 알고리즘이 기존 알고리즘 대비 복잡도를 개선하였으며 추가학습과 점진학습에서 기존 알고리즘과 비슷한 성능을 유지하거나 더 좋은 성능을 보이는 것을 확인할 수 있었다.