서지주요정보
(A) study on generating explanations for reinforcement learning policies in control tasks = 제어 문제를 위한 강화학습 정책의 설명 생성에 관한 연구
서명 / 저자 (A) study on generating explanations for reinforcement learning policies in control tasks = 제어 문제를 위한 강화학습 정책의 설명 생성에 관한 연구 / Seokin Seo.
발행사항 [대전 : 한국과학기술원, 2019].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8035030

소장위치/청구기호

학술문화관(문화관) 보존서고

MCS 19061

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

For recent years, deep reinforcement learning, which leverages deep neural networks for learning reinforcement learning agents, has achieved successful results in control tasks, and the need for understanding and explaining learning processes or outcomes of deep reinforcement learning has also been raised. In this thesis, we try to extend the notion of minimal sufficient explanation, which explains behaviors of an agent learned in tabular reinforcement learning, into continuous state spaces, in order to explain behaviors of deep reinforcement learning agent. Further, we propose a novel explanation generation algorithm for deep reinforcement learning policies with the extended notion, and show how our method is efficient for explaining behaviors of reinforcement learning agents, by comparing naive baseline algorithms.

최근 강화학습에 심층신경망을 사용하는 심층강화학습이 제어문제의 정책 학습에 성공적인 성과를 거두면서, 심층강화학습의 관심이 높아지고 있는 가운데, 심층강화학습의 학습과정 혹은 학습결과에 대한 이해와 설명에 대한 필요성 또한 높아지고 있다. 본 학위논문에서는 유한 마르코프 결정과정에서의 정책의 설명방법으로 제시되었던 방법 중 하나인 최소충분설명의 개념을 심층강화학습 결과의 설명에 사용하기 위해 연속 마르코프 결정과정에서도 적용가능한 개념으로 확장하고자 한다. 또한 본 연구에서 확장한 개념을 실제 심층강화학습 알고리즘으로 학습된 정책에 적용하여 행동에 대한 설명을 생성하는 알고리즘을 예시로 제시하고, 간단하게 생각할 수 있는 다른 비교 알고리즘과 대비하여 얼마나 효율적으로 설명을 생성하는지 보이려고 한다.

서지기타정보

서지기타정보
청구기호 {MCS 19061
형태사항 iii, 16 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 서석인
지도교수의 영문표기 : Kee-Eung Kim
지도교수의 한글표기 : 김기응
학위논문 학위논문(석사) - 한국과학기술원 : 전산학부,
서지주기 Including references
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서