서지주요정보
(A) fixed-point deep reinforcement learning platform with quantization-aware training and adaptive parallelism = 동적 비트 양자화와 적응형 병렬화를 이용한 고정 소수점 기반 심층강화학습 가속 플랫폼
서명 / 저자 (A) fixed-point deep reinforcement learning platform with quantization-aware training and adaptive parallelism = 동적 비트 양자화와 적응형 병렬화를 이용한 고정 소수점 기반 심층강화학습 가속 플랫폼 / Je Yang.
발행사항 [대전 : 한국과학기술원, 2022].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8038841

소장위치/청구기호

학술문화관(도서관)2층 학위논문

MEE 22096

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

We present a deep reinforcement learning acceleration platform named FIXAR, which employs fixed-point data types and arithmetic units for the first time using a SW/HW co-design approach. We propose a quantization-aware training algorithm in fixed-point, which enables to reduce the data precision by half after a certain amount of training time without losing accuracy. We also design a FPGA accelerator that employs adaptive dataflow and parallelism to handle both inference and training operations. Its processing element has configurable datapath to efficiently support the proposed quantized-aware training. We validate our FIXAR platform, where the host CPU emulates the DRL environment and the FPGA accelerates the agent’s DNN operations, by running multiple benchmarks in continuous action spaces based on a latest DRL algorithm called DDPG. Finally, the FIXAR platform achieves 25293.3 inferences per second (IPS) training throughput, which is 2.7 times higher than the CPU-GPU platform. In addition, its FPGA accelerator shows 53826.8 IPS and 2638.0 IPS/W energy efficiency, which are 5.5 times higher and 15.4 times more energy efficient than those of GPU, respectively. FIXAR also shows the best IPS throughput and energy efficiency among other state-of-the-art acceleration platforms using FPGA, even it targets one of the most complex DNN models.

본 논문에서는 SW/HW Co design을 통해 최초로 고정 소수점 기반의 심층 강화학습 가속 플랫폼 FIXAR를 제안하였다. 일정 학습 시간 이후에 데이터 정밀도를 절반으로 줄이는 고정 소수점 기반 동적 양자화를 통해 양자화 이후에도 모델의 정확도를 유지하였다. 또한 하드웨어 측면에서는 추론과 학습 과정을 모두 효과적으로 처리하기 위해 적응형 병렬처리 아키텍처를 제안하였다. 또한 데이터플로우 맞춤형 연산 처리 장치를 통해 동적 양자화의 다양한 비트 연산을 효율적으로 지원하였다. FIXAR 플랫폼에서는 Xilinx U50 FPGA에서 앞의 DNN 작업을 가속하고, host CPU에서는 MuJoCo 강화학습 환경을 구현하였다. FIXAR 플랫폼은 CPU-GPU 플랫폼에 비해 초당 2.7배 더 많은 양의 학습 데이터를 처리하였으며, 5.5배 더 높은 에너지 효율을 보이며 FPGA를 사용하는 다른 가속 플랫폼보다 더욱 복잡한 강화학습 알고리즘을 효율적으로 동작시켰다.

서지기타정보

서지기타정보
청구기호 {MEE 22096
형태사항 iv, 25 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 양제
지도교수의 영문표기 : Joo-Young Kim
지도교수의 한글표기 : 김주영
Including appendix
학위논문 학위논문(석사) - 한국과학기술원 : 전기및전자공학부,
서지주기 References : p. 20-23
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서