In recent times, research in hardware and artificial intelligence algorithms is actively progressing, and there is a continual effort to replace tasks traditionally performed by humans with machines, with deep learning models at the forefront. The parameters of these deep learning-based artificial intelligence models are showing a consistent increase, leading to a steady rise in the required computational workload. Hardware accelerators for AI computations are being investigated to handle the growing computational demands. However, these accelerators still face data bottleneck issues between memory and processors. Processing-in-memory (PIM) alleviates the data bottleneck issue inherent in von Neumann architecture by placing the processor within the memory, reducing data movement between memory and processors. In this paper, we propose a DRAM-based analog computing in-memory accelerator, employing the structure of the conventional 1T1C (1 transistor 1 capacitor) cell, using two cells to construct a single Multiply-Accumulate (MAC) unit. The accelerator presented in this paper allows all units in the processor array to simultaneously participate in computations.
최근 하드웨어 및 인공지능 알고리즘 관련 연구가 활발히 진행되며 딥러닝 모델을 주축으로 기존에 사람이 하던 일을 기계로 대체하고자 하는 시도가 계속해서 이뤄지고 있다. 이러한 딥러닝 기반 인공지능 모델의 매개변수는 점점 증가하는 추세이며 이에 따라 요구되는 연산량이 꾸준히 증가하고 있다. 증가하는 연산량을 처리하기 위해 AI 연산을 위한 하드웨어 가속기들이 연구되고 있지만 이러한 가속기들도 여전히 메모리와 연산기 사이에 데이터 병목현상이 존재한다. Processing-in-memory(PIM)는 연산기를 메모리 안에 위치시켜 메모리와 연산기 사이 데이터 이동을 줄임으로써 폰노이만 구조에서 발생하던 데이터 병목 현상을 완화시킨다. 이 논문에서는 기존 DRAM의 구조인 1T1C(1 transistor 1capacitor) 셀을 두 개 사용하여 하나의 MAC 연산기를 구성하며 연산기 배열의 모든 연산기들이 동시에 연산에 참여하는 DRAM 기반 아날로그 컴퓨팅 인메모리 가속기를 제시한다.