서지주요정보
Marginal information for structure learning = 구조학습을 위한 주변정보
서명 / 저자 Marginal information for structure learning = 구조학습을 위한 주변정보 / Ganghoo Kim.
발행사항 [대전 : 한국과학기술원, 2019].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8034668

소장위치/청구기호

학술문화관(문화관) 보존서고

DMAS 19011

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

This thesis is devoted to introduce methods for incorporating the marginal information in structure learning of graphical models. As the number of variables involved in the model increases, the performance of structure learning decreases due to the size of the large search space and the limited sample size. On the other hand, marginal models can be obtained more easily from the domain experts or the same data set because they include only some subsets of variables. This thesis propose two methods to improve the performance of the whole structure learning by using these marginal model structures In the fi rst part, we improve the score-based learning of Bayesian networks by using marginal models. structure learning for Bayesian networks has been made in a heuristic mode in search of an optimal model to avoid an explosive computational burden. In the learning process, a structural error which occurred at a point of learning may deteriorate its subsequent learning. We proposed a remedial approach to this error-for-error process by using marginal model structures. The remedy is made by xing local errors in structure in reference to the marginal structures. In this sense, we call the remedy a marginally corrective procedure. We devised a new score function for the procedure which consists of two components, the likelihood function of a model and a discrepancy measure in marginal structures. The proposed method compares favorably with a couple of the most popular algorithms as shown in experiments with benchmark data sets. In the second part of the thesis, we propose a structure learning method by combining marginal model structures. In many domains, data can be obtained from various sources and each may not contains all the variables involved in the system depending on the environment in which the data is collected. The graph constructed for each dataset can be considered as a marginal model of the entire model and they need to be combined for a joint inference. We propose methods of nding the complete set of possible combined model structures for undirected graphs. The proposed method outperforms the existing method as shown in our experiment.

모형의 변수 수가 많아지면 탐색공간의 크기와 제한된 표본수로 인해 구조학습의 성능이 떨어지게 된다. 반면, 주변모형은 일부 변수들만을 포함하고 있기 때문에 해당 분야 전문가의 지식이나 데이터로부터 얻기가 용이하다. 본 논문에서는 이러한 주변모형들을 활용해 전체 구조학습의 성능을 향상시키는 두 가지 방법을 소개한다. 첫째로, 주변모형을 이용한 베이즈 네트워크의 점수기반 구조학습 방법을 제안한다. 베이즈 네트워크의 구조학습은 방대한 양의 계산을 피하기 위해 최적모형에 대한 발견적 방법에 의존해왔다. 순차적 학습과정 중 발생한 구조적 오류는 이후 단계에 영향을 끼쳐 성능을 저하시킨다. 본 논문에서는 주변 모형구조를 사용하여 학습과정 중에 발생하는 부분적 오류를 개선하고자 하였다. 이러한 관점에서 이 개선책을 주변 교정과정이라 불렀다. 모형의 우도함수와 주변구조의 불일치 정도로 구성된 점수함수를 새롭게 정의하여 구조학습을 진행하였다. 가장 널리 알려진 방법들과의 실험적 비교를 통해 제안된 방법의 우수성을 입증하였다. 둘째로, 주변모형의 결합을 이용한 구조학습 방법을 제안한다. 많은 경우에 데이터는 여러 출처로부터 얻어진다. 하지만 데이터가 수집되는 환경에 따라 시스템의 모든 변수를 포함하고 있지 않을 수 있다. 따라서 각각의 데이터로부터 얻어지는 그래프는 전체 시스템에 대한 모형의 주변 모형구조로 볼 수 있으며, 종합적 분석을 위한 그래프의 결합이 필요하다. 본 논문에서는 비방향성 주변 모형구조들의 결합을 통해 전체 모형구조를 찾는 방법을 제시하였다. 제안된 방법을 사용하여 모든 가능한 전체 모형구조를 찾을 수 있었으며, 기존의 연구결과와 비교하여 탐색속도가 크게 향상되었음을 실험적으로 확인하였다.

서지기타정보

서지기타정보
청구기호 {DMAS 19011
형태사항 v, 62 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 김강후
지도교수의 영문표기 : Yeonseung Chung
지도교수의 한글표기 : 정연승
공동지도교수의 영문표기 : Sung-ho Kim
공동지도교수의 한글표기 : 김성호
수록잡지명 : "Marginal information for structure learning". Statistics and computing,
Including appendix
학위논문 학위논문(박사) - 한국과학기술원 : 수리과학과,
서지주기 References : p. 57-60
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서