서지주요정보
Fast and robust distributed machine learning = 빠르고 강인한 분산 기계학습
서명 / 저자 Fast and robust distributed machine learning = 빠르고 강인한 분산 기계학습 / Dong-Jun Han.
발행사항 [대전 : 한국과학기술원, 2022].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8038505

소장위치/청구기호

학술문화관(도서관)2층 학위논문

DEE 22031

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

With the increasing number of edge nodes such as mobile phones, Internet of Things (IoT) devices and smart vehicles/drones, large amounts of valuable computing resources are now located at the edge. Moreover, a large portion of data generated nowadays is collected at these distributed nodes at the edge. In this sense, distributed machine learning (ML) is becoming significantly important and receiving considerable attention nowadays. This thesis proposes fast, robust and communication-computation efficient distributed machine learning (ML) solutions that are becoming increasingly important in current edge networks with a number of distributed nodes. In the first part of the thesis (Chapters 2 and 3), we focus on distributed learning which aims to speed up training via data parallelization. By utilizing the tools of information theory and coding theory, we develop a fast and robust distributed learning solution highly tailored to the practical communication networks. In the second part (Chapter 4), we focus on federated learning, where the goal is to collaboratively train a model without directly uploading the local/private data of each node to the server. We propose an algorithm that can speed up federated learning using multiple edge servers in a wireless setup. Finally in the third part (Chapter 5), we focus on split learning, which enables to reduce the computation burden at the clients by splitting the model architecture (i.e., the neural network) into the client-side model and the server-side model. We propose an algorithm that can address the latency and communication efficiency issues of current federated/split learning approaches, via a local-loss-based training method specifically geared to the split learning setup.

스마트폰이나 IoT 기기들과 같은 엣지 노드들의 수가 증가함에 따라 엣지단에서 사용할 수 있는 컴퓨팅 자원의 양이 점점 늘어나고 있다. 또한 많은 양의 데이터가 엣지에 분산되어 있는 노드들에서 수집되고 있다. 이러한 측면에서 분산 기계학습 기술의 중요성은 점점 더 커지고 있다. 이 논문에서는 빠르고, 강인하고, 통신 및 계산 측면으로 효율적인 분산 기계학습 기술들을 제안한다. 학위논문의 첫번째 파트에서는 데이터 병렬 처리를 통해 학습 속도를 높이는 분산 학습을 다룬다. 정보이론과 부호이론을 이용하여 통신 네트워크에 특화된 빠르고 강인한 분산 기계학습 기술을 제안한다. 두번째 파트에서는 각 사용자들의 개인 데이터를 서버로 올리지 않고 학습을 진행하는 연합 학습을 다룬다. 무선 통신 상황에서 여러 대의 엣지 서버를 활용하여 연합 학습의 속도를 높이는 알고리즘을 제안한다. 마지막으로 세번째 파트에서는 모델을 사용자 측 모델과 서버 측 모델로 분할하여 학습을 진행하는 분할 학습을 다룬다. 분할 학습 상황에 적합한 지역 손실 학습 기법을 통해 현재 연합/분할 학습 기술들의 지연 시간, 통신 및 계산 효율성 문제점을 해결한다.

서지기타정보

서지기타정보
청구기호 {DEE 22031
형태사항 vii, 97 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 한동준
지도교수의 영문표기 : Jaekyun Moon
지도교수의 한글표기 : 문재균
수록잡지명 : "Hierarchical Broadcast Coding: Expediting Distributed Learning at the Wireless Edge". IEEE Transactions on Wireless Communications, vol. 20, no. 4, pp. 2266-2281(2021)
수록잡지명 : "FedMes: Speeding Up Federated Learning With Multiple Edge Servers". IEEE Journal on Selected Areas in Communications, vol. 39, no. 12, pp. 3870-3885(2021)
Including appendix
학위논문 학위논문(박사) - 한국과학기술원 : 전기및전자공학부,
서지주기 References : p. 87-93
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서