서지주요정보
Acceleration of large-scale graph neural networks training by improving page utilization of solid-state drive = 솔리드-스테이트 드라이브의 페이지 활용도 향상을 통한 거대 그래프 신경망의 훈련 가속
서명 / 저자 Acceleration of large-scale graph neural networks training by improving page utilization of solid-state drive = 솔리드-스테이트 드라이브의 페이지 활용도 향상을 통한 거대 그래프 신경망의 훈련 가속 / Youngmin Jang.
발행사항 [대전 : 한국과학기술원, 2023].
Online Access 비공개원문

소장정보

등록번호

8040975

소장위치/청구기호

학술문화관(도서관)2층 학위논문

MEE 23117

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

The size of graph data used in graph neural network models increases rapidly every year, but the memory size of the computational unit, CPU and GPU, has not improved much. Therefore, recently, graphs have been stored in solid-state drive (SSD) storage with good capacity-to-price efficiency to train graph neural network models. However, due to the limitations of Von-Neumann's architecture (memory wall), transferring graph data from storage to computational units is a significant bottleneck. In order to overcome this limitation, in-storage processing (ISP) research has been studied. However, since most components of graph data are much smaller than pages, which are the smallest units of SSD, a problem arises that the page utilization decreases, slowing the entire training process. This thesis applies a partial page read scheme to SSD to solve this problem to increase page utilization. This thesis also proposes a page allocation strategy, a mapping scheme for the layout of graph data to fit the size of partial pages, and a customized flash translation layer (FTL) mapping table for optimizing the partial page read scheme. Additionally, this thesis implements a request manager to optimize data requests and proposes an architecture for standalone in-storage processing. The proposed method achieves, on average, 11.6$\times$ and 11.2$\times$ speedup and 14.8$\times$ and 16.8$\times$ lower energy consumption than the CPU and GPU systems.

그래프 신경망 모델에 사용되는 그래프 데이터의 크기는 매년 빠르게 증가하지만, 연산 장치인 중앙 처리 장치와 그래프 처리 장치의 메모리 크기는 많이 증가하지 못하고 있다. 따라서 최근에는 그래프를 가격 대비 용량 효율이 좋은 솔리드-스테이트 드라이브 스토리지에 저장해 그래프 신경망 모델을 학습시키고 있다. 하지만 폰 노이만 구조의 한계(메모리 장벽)로 인해 그래프 데이터를 스토리지에서 연산 유닛으로 전달하는 과정이 주요 병목현상으로 작용한다. 이 한계를 극복하기 위해 인-스토리지 처리 연구가 진행되고 있다. 하지만 대부분의 그래프 데이터의 요소는 솔리드-스테이트 드라이브의 최소 단위인 페이지보다 매우 작기 때문에 페이지 활용도 떨어져 전체 학습 과정이 느려지는 문제가 발생한다. 이러한 문제를 해결하기 위해 본 논문에서는 페이지 활용율 높이기 위해 솔리드-스테이트 드라이브에 부분 페이지 읽기 방식을 적용한다. 또한 부분 페이지 읽기 방식의 최적화를 위한 페이지 할당 전략, 그래프 데이터의 레이아웃을 부분 페이지의 크기에 맞게 매핑 그리고 맞춤형 플래시 변환 계층 위치 테이블을 제안한다. 추가로, 데이터 요청의 최적화를 위해 요청 매니저를 구현하고 독립 실행형 인-스토리지 처리를 위한 구조를 제안한다. 제안된 방법은 중앙 처리 장치와 그래프 처리 장치 시스템 대비 11.6배, 11.2배 빠른 속도와 14.8배, 16.8배 낮은 에너지 소모를 보인다.

서지기타정보

서지기타정보
청구기호 {MEE 23117
형태사항 iv, 46 p. : 삽도 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 장영민
지도교수의 영문표기 : Lee-Sup Kim
지도교수의 한글표기 : 김이섭
학위논문 학위논문(석사) - 한국과학기술원 : 전기및전자공학부,
서지주기 References : p. 40-43
주제 Graph neural networks training
In-storage processing
Solid-state drives
Data layout
그래프 신경망 학습
인-스토리지 처리
솔리드-스테이트 드라이브
데이터 레이아웃
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서