In the Von Neumann architecture, DRAM was used as a memory supporting processors within hierarchical structure. Particularly, in-memory computing methods are being applied performing machine learning processing to various memories. This thesis proposes an architecture for processing in-memory inside DRAM. The architecture doesn't change the low level structure of DRAM bank for feasibility and places the MAC Operator and cache memory inside DRAM for deep learning operation. Also, using Bank-level parallelism, which activates all banks in parallel, maximizes the bandwidth of DRAM banks and using Mini-DRAM array as cache memory minimizes the area overhead of cache memory in DRAM process. And this thesis proposed 3x3-1 structure of convolutional filter. Through these contributions, the runtime is reduced by 69% and energy consumption is reduced by 8.9% compared to Non-PIM structure.
폰 노이만 구조에서 DRAM은 계층적 구조 내에서 프로세서를 지원하는 메모리로 쓰이고 있다. 최근에 메모리 내부에서 프로세서의 역할을 수행하기 위한 구조의 연구가 활발히 진행되고 있다. 본 연구에서는 DRAM 내부에서의 인 메모리 컴퓨팅을 위한 아키텍처를 제안한다. DRAM bank의 하위 레벨의 구조는 변경하지 않으며 딥 러닝 연산을 위한 곱셈 및 누산(Multiplication and Accumulation) 연산기 및 캐시 메모리를 디램 내부에 구현한 구조를 제시한다. 또한 모든 뱅크를 병렬적으로 동작시키는 뱅크 레벨 병렬 처리 방식을 이용하여 DRAM Bank의 대역폭을 최대로 이용하였으며 캐시 메모리로 DRAM 구조를 이용하여 DRAM 공정에서 캐시 메모리의 면적을 최소화하였다. 그리고 합성곱 신경망(Convolutional neural network)에서 3×3-1 구조를 제안하였다. 제안하는 구조에서는 폰 노이만 구조의 방식과 비교하여 동작 시간이 69% 감소하였으며 에너지 소모가 8.9% 감소하였다.