서지주요정보
Interpretable model to identify breast cancer information flow based on sparse neural network with tags = 해석 가능한 인공지능을 활용한 유방암 아형 분류 및 중요 기전 발굴
서명 / 저자 Interpretable model to identify breast cancer information flow based on sparse neural network with tags = 해석 가능한 인공지능을 활용한 유방암 아형 분류 및 중요 기전 발굴 / Jaywook Han.
발행사항 [대전 : 한국과학기술원, 2021].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8038258

소장위치/청구기호

학술문화관(문화관) 보존서고

MBIS 21021

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

Along with progressions in the machine learning field, the complexity of model also has increased.This complexity causes the “Black box problem”; which is a mechanistic blackout statement.One trial to solve this black box problem is making the Interpretable model that represents results with reasons why the model makes certain decisions. Here, I developed an interpretable deep learning model, Sparse Neural Network with Tags(SNNT), which mimics the information flow of real world phenomena. According to breast cancer subtyping task in this research, SNNT outperformed other machine learning techniques. In addition, important genes were identified including three new candidate breast cancer subtype risk factors

기계학습 모델은 현재 가장 각광받는 분석 기법이다. 하지만 이런 발전과 함께 기계학습 모델의 다양한 문제점 및 위험성도 주목받고 있다. 대표적인 문제는 모델의 행동 양상에 대한 암전 상태를 의미하는 블랙 박스 문제다. 이러한 문제를 해결하고, 주어진 데이터에서 좀 더 많은 정보를 추출하기 위해 차원 축소, 시각화 등의 다양한 방법을 통해 인간이 직관적으로 이해 가능한 해석가능 기계학습 모델을 만드려는 노력이 학계에서 진행되고 있다. 본 연구에서는 심층 신경회로망을 활용한 기계학습 모델의 연결성을 실제 현상(유방암 아형 결정 과정)의 정보 흐름을 기반으로제한함으로써 해석 가능한 모델을 구현하였다. 이를 토대로 심층 신경회로망이 실제 현상에서의 정보 흐름을 모방하도록 학습시켰으며 게임 이론 기반의 중요도 분석을 활용 어떤 유전자 혹은 대사경로 인자가 유방암 아형 결정에 중요한지 밝혔다. 또한, VIRMA, Histone, Ubiquitin을 유방암 아형 관련 연구의 새로운 대상으로 제시하였다.

서지기타정보

서지기타정보
청구기호 {MBIS 21021
형태사항 iv, 45 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 한재욱
지도교수의 영문표기 : Doheon Lee
지도교수의 한글표기 : 이도헌
학위논문 학위논문(석사) - 한국과학기술원 : 바이오및뇌공학과,
서지주기 References : p. 43-44
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서