In the conventional computing, Von Neumann structure, DRAM was used as memory to support the CPU. However, recently, in the case of Deep Neural Network, the latency and energy to import data from memory are dominant compared with computing in the processor. Therefore, in this paper, we proposed a method for in-memory computing in DRAM. Considering the specificity of the DRAM process, we proposed a form applicable to actual DRAM because the DRAM cell cannot be modified. In addition, we proposed a method of activating multiple word lines for higher throughput. This behavior causes destruction of data inside the cell, which can be compensated by the opposite side of DRAM Mat using the characteristics of sense amplifier driving complementary values at both ends. Using the proposed method, this paper used the Binary Neural Network to implement the dataset classification of MNIST, Cifar-10, obtaining accuracy of 99.01% and 77.63%, respectively. The proposed structure shows a throughput of 2304GOPS and an energy efficiency of 1440TOPS/W.
기존의 Computing인 폰 노이만(von Neumann) 구조에서 DRAM은 CPU를 지원하는 메모리로 쓰였다. 하지만 최근 Deep Neural Network에서 요구하는 연산의 경우 processor에서의 computing보다 메모리에서 데이터를 가져오는데 드는 DATA transfer에 드는 시간과 에너지가 주를 이룬다. 따라서 본 논문에서는 DRAM내부에서의 인 메모리 컴퓨팅을 위한 방식을 제안한다. DRAM공정의 특수성을 고려해 cell 내부를 수정하지 않아 실제 DRAM에 적용 가능한 형태를 제안한다. 또한, high throughput을 위해 여러개의 워드라인을 activate하는 방식을 제안한다. 이러한 동작이 cell내부의 data의 파괴를 야기하는데, 이를 sense amplifier의 양단이 상보적인 값으로 드라이빙되는 특징을 이용해 파괴된 data를 보상받을 수 있도록 했다. 본 논문은 제안하는 방식을 이용해, MNIST, Cifar-10의 dataset 분류를 구현하기 위해 Binary Neural Network를 사용했고, 각각 99.01%와 77.63%의 accuracy를 얻었다. 제안하는 구조는 2304GOPS의 throughput을 가지며, 1440TOPS/W의 Energy efficiency를 보인다.