서지주요정보
Dataset distillation via loss approximation for continual learning = 지속학습을 위한 손실함수 근사를 통한 데이터셋 증류법
서명 / 저자 Dataset distillation via loss approximation for continual learning = 지속학습을 위한 손실함수 근사를 통한 데이터셋 증류법 / Donghyeok Shin.
발행사항 [대전 : 한국과학기술원, 2022].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8039171

소장위치/청구기호

학술문화관(도서관)2층 학위논문

MIE 22013

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

Current neural networks achieved human-comparable performance in many offline tasks. However, since the training environment is not static in the real world, it breaks the i.i.d assumption in Empirical Risk Minimization. Continual learning is a research area that aims to make the neural network can train in a dynamically changing training environment. Continual learning assumes that the previously seen data is not used again to check that the neural network is well retaining previous knowledge during the training environment change. The basic way in continual learning is to additionally train the new dataset on a trained model, but this leads to a so-called catastrophic forgetting in which the performance of previously learned data is drastically decreased. Many previous works point out the absence of previous loss function and they modeled the surrogate loss to approximate it. Although previous works achieved the alleviation of catastrophic forgetting, they have several limitations such as violating the assumption, unintentional change of surrogate loss, and need large additional cost. In this thesis, we propose a new approach to overcoming catastrophic forgetting, Dataset Distillation for Continual learning (D2CL), which can avoid the above shortcomings. D2CL train the small synthetic dataset which well approximates the loss function of the original dataset. This thesis also introduces a new proposition that is useful for loss approximation. Finally, it is validated through several experimental results that our proposed method help to store more informative data while using small additional memory.

현재, 인공신경망은 다양한 고정된 태스크에서 사람과 견줄만한 수준의 성능을 보이고 있다. 하지만 현실 세계에서는 학습 환경이 변화하기 때문에, 경험적 위험 최소화의 독립 항등 분포 가정이 더 이상 성립하지 않는다. 지속학습은 학습환경이 변화하는 상황에서도 인공신경망이 원활하게 학습하는 것을 목적으로 한 연구분야이다. 지속학습은 변화하는 학습환경에서 이전에 학습한 지식을 기억하는 정도를 확인하기 위해 학습에 사용했던 데이터는 다시 사용하지 않는 가정을 가지고 있다. 이를 위한 기본적인 방법은 학습된 모델 에 새로운 데이터셋을 추가적으로 학습하는 것이지만, 이는 이전에 학습했던 데이터셋에 대한 급격한 성능 저하를 일으키는 일명 치명적 망각 현상이 발생한다. 많은 선행연구들은 이전에 보았던 데이터의 손실함수 부재를 치명적 망각의 주요 원인이라 지적하고 이를 근사하는 대리 손실함수를 모델링하였다. 기존의 방법 론은 치명적 망각을 완화하는 효과를 보였지만, 지속학습의 가정 위배, 대리 손실함수의 의도치 않은 변경, 그리고 많은 추가 비용을 필요로 하는 한계점이 있다. 본 연구에서는 치명적 망각을 극복할 수 있는 새로운 방법론인 지속학습을 위한 데이터셋 증류법을 제안한다. 본 연구는 원본 데이터셋의 손실함수를 근사하는 작은 가상 데이터셋을 학습하는 방법을 제안한다. 또한 본 연구에서는 손실함수 근사에 유용한 새로운 명제 를 유도하였다. 마지막으로 여러 실험 결과를 통해 제안한 방법론이 적은 추가 메모리를 사용함에도 유용한 데이터를 저장함을 확인하였다.

서지기타정보

서지기타정보
청구기호 {MIE 22013
형태사항 iii, 28 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 신동혁
지도교수의 영문표기 : Il-Chul Moon
지도교수의 한글표기 : 문일철
Including appendix
학위논문 학위논문(석사) - 한국과학기술원 : 산업및시스템공학과,
서지주기 References : p. 23-26
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서