서지주요정보
데이터 리던던시와 차동 비트라인 연산을 이용한 고대역폭 DRAM 기반 인-메모리 컴퓨팅 = High throughput DRAM-based in-memory computing using data redundancy and differential bit-line computation
서명 / 저자 데이터 리던던시와 차동 비트라인 연산을 이용한 고대역폭 DRAM 기반 인-메모리 컴퓨팅 = High throughput DRAM-based in-memory computing using data redundancy and differential bit-line computation / 윤혜인.
발행사항 [대전 : 한국과학기술원, 2022].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8039870

소장위치/청구기호

학술문화관(도서관)2층 학위논문

MEE 22139

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

In the conventional computing, Von Neumann structure, DRAM was used as memory to support the CPU. However, recently, in the case of Deep Neural Network, the latency and energy to import data from memory are dominant compared with computing in the processor. Therefore, in this paper, we proposed a method for in-memory computing in DRAM. Considering the specificity of the DRAM process, we proposed a form applicable to actual DRAM because the DRAM cell cannot be modified. In addition, we proposed a method of activating multiple word lines for higher throughput. This behavior causes destruction of data inside the cell, which can be compensated by the opposite side of DRAM Mat using the characteristics of sense amplifier driving complementary values at both ends. Using the proposed method, this paper used the Binary Neural Network to implement the dataset classification of MNIST, Cifar-10, obtaining accuracy of 99.01% and 77.63%, respectively. The proposed structure shows a throughput of 2304GOPS and an energy efficiency of 1440TOPS/W.

기존의 Computing인 폰 노이만(von Neumann) 구조에서 DRAM은 CPU를 지원하는 메모리로 쓰였다. 하지만 최근 Deep Neural Network에서 요구하는 연산의 경우 processor에서의 computing보다 메모리에서 데이터를 가져오는데 드는 DATA transfer에 드는 시간과 에너지가 주를 이룬다. 따라서 본 논문에서는 DRAM내부에서의 인 메모리 컴퓨팅을 위한 방식을 제안한다. DRAM공정의 특수성을 고려해 cell 내부를 수정하지 않아 실제 DRAM에 적용 가능한 형태를 제안한다. 또한, high throughput을 위해 여러개의 워드라인을 activate하는 방식을 제안한다. 이러한 동작이 cell내부의 data의 파괴를 야기하는데, 이를 sense amplifier의 양단이 상보적인 값으로 드라이빙되는 특징을 이용해 파괴된 data를 보상받을 수 있도록 했다. 본 논문은 제안하는 방식을 이용해, MNIST, Cifar-10의 dataset 분류를 구현하기 위해 Binary Neural Network를 사용했고, 각각 99.01%와 77.63%의 accuracy를 얻었다. 제안하는 구조는 2304GOPS의 throughput을 가지며, 1440TOPS/W의 Energy efficiency를 보인다.

서지기타정보

서지기타정보
청구기호 {MEE 22139
형태사항 iv, 35 p. : 삽도 ; 30 cm
언어 한국어
일반주기 저자명의 영문표기 : Hye-In Yoon
지도교수의 한글표기 : 조성환
지도교수의 영문표기 : SeongHwan Cho
부록 수록
학위논문 학위논문(석사) - 한국과학기술원 : 전기및전자공학부,
서지주기 참고문헌 : p. 32-33
주제 디램
인메모리컴퓨팅
딥러닝연산기
컨볼루션뉴럴네트워크
바이너리뉴럴네트워크
DRAM
In-memory computing
Deep learning accelerator
Convolutional Neural Network
Binary Neural Network
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서