서지주요정보
Continual learning of deep neural networks under strict constraints = 엄격한 제약 조건 하에서의 심층 신경망 지속 학습
서명 / 저자 Continual learning of deep neural networks under strict constraints = 엄격한 제약 조건 하에서의 심층 신경망 지속 학습 / Janghyeon Lee.
발행사항 [대전 : 한국과학기술원, 2021].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8037888

소장위치/청구기호

학술문화관(문화관) 보존서고

DEE 21095

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

In this dissertation, we discuss continual learning methods that can be practically used not only in common situations, but also under several strict constraints. Specifically, (1) source task information should not be stored in external memory, (2) the network size should remain constant, and (3) past and future task data should not be used for hyperparameter selection. First, we introduce a residual continual learning method that satisfies the first and second conditions. The residual continual learning method avoids unnecessary weight changes using residual reparameterization and a decay loss, but past data has to be used for hyperparameter selection. To solve the hyperparameter problem, we construct a quadratic penalty method that satisfies the second and third conditions. The quadratic penalty method approximates the original loss function by the extended Kronecker-factored approximate curvature. Finally, by reconstructing data from a trained network through statistics matching and regularizing the output and weight together, we propose a standalone continual learning method that satisfies all of the three conditions.

이 논문에서는 일반적인 상황뿐만 아니라 몇 가지 엄격한 제약 조건 하에서도 실용적으로 사용할 수 있는 지속 학습 방법에 대해 논의한다. 구체적으로, (1) 이전 태스크의 정보가 외부 메모리에 저장되어서는 안되며, (2) 네트워크 크기는 일정하게 유지되어야 하며, (3) 과거 및 미래 태스크의 데이터가 하이퍼 파라미터 선택에 사용되어서는 안되는 상황을 고려한다. 우선, 첫 번째와 두 번째 조건을 충족하는 잔차 지속 학습 방법을 먼저 소개한다. 잔차 지속 학습 방법은 잔차 재 매개 변수화 및 감쇄 손실을 사용하여 불필요한 가중치 변경을 방지하지만 하이퍼 파라미터 선택에는 과거 데이터를 필요로 한다. 이러한 하이퍼 파라미터 문제를 해결하기 위해 두 번째 및 세 번째 조건을 충족하는 이차 페널티 방법을 제안한다. 제안하는 이차 페널티 방법은 확장된 크로네커 분해 근사 곡률을 사용하여 원본 손실 함수를 근사한다. 마지막으로, 통계 매칭을 통해 훈련된 네트워크의 데이터를 재구성하고 출력과 가중치를 함께 정규화하여 세 가지 조건을 모두 충족하는 독립형 지속 학습 방법을 제안한다.

서지기타정보

서지기타정보
청구기호 {DEE 21095
형태사항 v, 52 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 이장현
지도교수의 영문표기 : Junmo Kim
지도교수의 한글표기 : 김준모
수록잡지명 : "Residual continual learning". Proceedings of the AAAI Conference on Artificial Intelligence, v.34.no.4, pp.4553-4560(2020)
수록잡지명 : "Continual learning with extended kronecker-factored approximate curvature". Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp.9001-9010(2020)
Including Appendix
학위논문 학위논문(박사) - 한국과학기술원 : 전기및전자공학부,
서지주기 References : p. 48-52
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서