Histopathological image analysis has been the golden standard for cancer diagnosing and grading. With the recent advances in deep learning techniques for digital image analysis, convolutional neural networks (ConvNets) have been successfully used to aid pathologists with the time-consuming and laborious examinations. To produce correct diagnoses, the pathologists visually examine cells' shape and organization along with overall tissue structure and morphology by observing the microscopic slides through different magnification levels. Based on this, current deep learning approaches are developed by extracting small patches from the whole slides in very distinct manners, altering the size of the patches, the magnification level and, the normalization method; factors that can change the performance of the ConvNet in terms of accuracy and efficiency. Therefore, in this study, we train a total of twelve ConvNet models to perform the task of 3-class classification of stomach cancer histopathological images, varying the size of the patches, the magnification level, and the normalization method, to analyze the effect that each factor has on the convolutional neural network, assessing the performance via precision and recall. With this study, we provide a rationale for why these factors would affect a model's performance in relation to data representation, as well as a guideline for histopathological image preprocessing methods.
병리조직 이미지 분석은 암 검진 및 분류의 기준으로 자리잡았다. 최근 딥러닝 이미지 분석 기술의 발달에 힘입어, 컨볼루션 신경망(ConvNet)은 시간이 소요되는 병리학자들의 고된 검진업무들의 보조에 사용되고 있다. 정확한 검진결과를 제공하기 위해, 병리학자들은 다양한 배율의 현미경 슬라이드들을 관찰함으로써 조직 구조 및 형태와 함께 세포의 모양과 구성을 평가한다. 이에 기반하여, 현 심층학습 접근법들은 전체 슬라이드에서 일부분을 추출할 때 컨볼루션 신경망의 정확도와 효율성을 변화시킬 수 있는 확대율과 크기, 정규화 방법론을 발달시키는 것에 초점을 두고 있다. 이에 따라, 본 연구에서는 상기 언급한 요소들을 변화시켜가며 총 12개의 컨볼루션 신경망을 학습시켜 위암 병리학적 이미지 3종류 분류 과제를 수행함으로써, 컨볼루션 신경망에 각 요소들이 갖는 영향을 분석한다. 이를 통해, 본 연구는 해당 요소들이 데이터 표현과 관련하여 모델의 성능에 어떻게 영향을 미치는지를 분석함과 함께 병리학적 이미지 전처리 방법론들에 대한 기준을 제시한다.