Along with progressions in the machine learning field, the complexity of model also has increased.This complexity causes the “Black box problem”; which is a mechanistic blackout statement.One trial to solve this black box problem is making the Interpretable model that represents results with reasons why the model makes certain decisions. Here, I developed an interpretable deep learning model, Sparse Neural Network with Tags(SNNT), which mimics the information flow of real world phenomena. According to breast cancer subtyping task in this research, SNNT outperformed other machine learning techniques. In addition, important genes were identified including three new candidate breast cancer subtype risk factors
기계학습 모델은 현재 가장 각광받는 분석 기법이다. 하지만 이런 발전과 함께 기계학습 모델의 다양한 문제점 및 위험성도 주목받고 있다. 대표적인 문제는 모델의 행동 양상에 대한 암전 상태를 의미하는 블랙 박스 문제다. 이러한 문제를 해결하고, 주어진 데이터에서 좀 더 많은 정보를 추출하기 위해 차원 축소, 시각화 등의 다양한 방법을 통해 인간이 직관적으로 이해 가능한 해석가능 기계학습 모델을 만드려는 노력이 학계에서 진행되고 있다. 본 연구에서는 심층 신경회로망을 활용한 기계학습 모델의 연결성을 실제 현상(유방암 아형 결정 과정)의 정보 흐름을 기반으로제한함으로써 해석 가능한 모델을 구현하였다. 이를 토대로 심층 신경회로망이 실제 현상에서의 정보 흐름을 모방하도록 학습시켰으며 게임 이론 기반의 중요도 분석을 활용 어떤 유전자 혹은 대사경로 인자가 유방암 아형 결정에 중요한지 밝혔다. 또한, VIRMA, Histone, Ubiquitin을 유방암 아형 관련 연구의 새로운 대상으로 제시하였다.