서지주요정보
Near-optimal clustering in block Markov decision processes = 블락 마르코프 결정 과정에서의 거의 최적의 군집화 알고리즘
서명 / 저자 Near-optimal clustering in block Markov decision processes = 블락 마르코프 결정 과정에서의 거의 최적의 군집화 알고리즘 / Junghyun Lee.
발행사항 [대전 : 한국과학기술원, 2023].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8040548

소장위치/청구기호

학술문화관(도서관)2층 학위논문

MAI 23023

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

We consider the problem of model estimation in episodic Block MDPs. In these MDPs, the decision maker has access to rich observations or contexts generated from a small number of latent states. We are interested in estimating the latent state decoding function (the mapping from the observations to latent states) based on data generated under a fixed behavior policy. We derive an information-theoretical lower bound on the error rate for estimating this function and present an algorithm approaching this fundamental limit. In turn, our algorithm also provides estimates of all the components of the MDP. We apply our results to the problem of learning near-optimal policies in the reward-free setting. Based on our efficient model estimation algorithm, we show that one can infer a policy converging (as the number of collected samples grows large) to the optimal policy at the best possible asymptotic rate. Our analysis provides necessary and sufficient conditions under which exploiting the block structure yields improvements in the sample complexity for identifying near-optimal policies. When these conditions are met, the sample complexities in the offline reward-free setting are improved by a multiplicative factor $n$, where $n$ is the number of contexts.

이 논문은 블락 마르코프 결정 과정의 모델 추정 문제를 다루었다. 정 과정에서 의사 결정자가 매우 큰 관찰공간에서 샘플들을 관찰할 수 있고, 이 관찰공간은 결정자가 관찰할 수 없는 다소 작은 잠재공간에서 생성된다. 우리의 목적은 주어진 샘플들을 바탕으로, 관찰공간에서 잠재공간으로 가는 디코딩 함수를 추정하는 것이다. 우리는 먼저 정보 이론적 오류율의 하한을 도출하고, 이 하한에 근접하는 알고리즘을 제시한다. 그 다음, 이 결과를 바탕으로 우리는 보상없는 강화학습에서 역시 최적의 정책으로 수렴할 수 있음을 보인다. 특히 우리는, 블락 구조를 활용하였을 때 최적의 정책을 얻는데 필요한 샘플 복잡도이 언제 개선되는지에 대한 필요충분조건을 얻는다. 이 조건이 만족되면, 오프라인 보상없는 강화학습의 샘플 복잡도가 관찰공간의 크기만큼 개선된다.

서지기타정보

서지기타정보
청구기호 {MAI 23023
형태사항 v, 114 p. : 삽도 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 이정현
지도교수의 영문표기 : Se-Young Yun
지도교수의 한글표기 : 윤세영
공동지도교수의 영문표기 : Chulhee Yun
공동지도교수의 한글표기 : 윤철희
Including appendix
학위논문 학위논문(석사) - 한국과학기술원 : 김재철AI대학원,
서지주기 References : p. 104-111
주제 Block Markov decision process
Clustering
Information theory
Change-of-measure
Markov chain
Mixing time
Concentration inequality
Asymptotic analyses
Offline RL
Reward-free RL
블록 마르코프 결정 과정
군집화
정보이론
측도 변동
마르코프 체인
혼합 시간
집중 부등식
점근적 분석
오프라인 강화학습
보상없는 강화학습
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서