서지주요정보
Communication optimization for deep learning in distributed processing environments = 분산 처리 환경에서 딥 러닝을 위한 통신 기법 최적화
서명 / 저자 Communication optimization for deep learning in distributed processing environments = 분산 처리 환경에서 딥 러닝을 위한 통신 기법 최적화 / Sanghun Cho.
발행사항 [대전 : 한국과학기술원, 2021].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8037222

소장위치/청구기호

학술문화관(문화관) 보존서고

MEE 21086

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

Machine learning has recently been in the spotlight as a solution to problems that were difficult to solve. Distributed processing techniques using graphic processing devices are widely used to deal with the vast amount of data needed to learn neural networks in deep learning, the most widely used type of machine learning, and thus collective communication within distributed systems exists as the main performance bottleneck and impairs the scalability of the system. In this dissertation, we would like to propose techniques and computer architectures that address communication bottlenecks and improve learning performance, considering the characteristics of the intermediate values of collective communication, the multilayer properties of deep learning, and the structure of distributed systems that perform actual computations.

기존의 해결하기 어려웠던 문제들의 해법으로 머신 러닝이 최근 각광받고 있다. 머신 러닝의 종류 중 가장 널리 쓰이는 딥 러닝에서 신경회로망을 학습할 때 필요한 방대한 데이터를 다루기 위해 그래픽 처리 장치를 이용한 분산 처리 기법이 널리 사용되고 있고 그에 따라 분산 시스템 내부의 집단 통신이 주된 성능 병목으로 존재하고 시스템의 확장성을 저해하고 있다. 본 학위논문에서는 집단 통신과 딥 러닝 학습 계산의 특성을 통합적으로 고려하는데, 집단 통신의 중간 값의 특징과 딥 러닝의 다층적 성질을 이용하고 실제 연산을 수 행하는 분산 시스템의 구조를 고려하여 통신 병목을 해소하고 학습 성능을 개선하는 기법 및 컴퓨터 구조를 제안하고자 한다.

서지기타정보

서지기타정보
청구기호 {MEE 21086
형태사항 iii, 27 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 조상훈
지도교수의 영문표기 : John Kim
지도교수의 한글표기 : 김동준
학위논문 학위논문(석사) - 한국과학기술원 : 전기및전자공학부,
서지주기 References : p. 23-25
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서