Recently, Computing-In-Memory (CIM) processors have been proposed to achieve high energy-efficiency by reducing data movement and solving memory bottlenecks. Furthermore, a network with highly accurate image classification has been introduced through the Absolute-Difference-Accumulation (ADA) operation instead of the multiplication-and-accumulation operation, which is widely used in DNN. ADA operation provides not only opportunities for high energy-efficient DNN accelerating by reducing multiplication but also a chance to reuse computation results. However, the previous CIM processor cannot reuse previous computation results for other computations. In this brief, we propose a highly accurate and high energy-efficient ADA-CIM processor that with two key features: 1) computation reuse for low-power, resulting in a 49.5% CIM operation power reduction, and 2) low-cost sign prediction core with 3-bit activation and weight quantization for high utilization. From the two key features, the proposed ADA-CIM processor is simulated in 28 nm CMOS technology and occupies 3.78 mm2. It consumes 2.77mW and achieves 43.1 TOPS/W energy-efficiency with a high-accuracy of 91.62% at CIFAR-10 (ResNet-20).
최근에 데이터 이동을 줄이고 메모리 병목 현상을 해결하여 높은 에너지 효율성을 달성하기 위해 CIM (Computing-In-Memory) 프로세서가 제안되었다. 또한, DNN에서 널리 사용되는 곱셈과 누적(MAC) 연산 대신 절대-차이-누적(ADA) 연산을 통해 매우 정확한 영상 분류를 할 수 있는 네트워크가 제안되었다. ADA 연산은 곱셈을 없애서 에너지 효율이 높은 DNN 가속기를 제공해줄 뿐만 아니라 계산 결과를 재사용할 기회도 제공한다. 그러나 이전 CIM 프로세서는 이전 계산 결과를 다른 계산에 재사용할 수 없다. 이 논문에서는 1) 계산 재사용으로 49.5% CIM 작동 전력 감소 및 2) 저비용 부호 예측, 이 두 가지 주요 기능을 가지고 매우 정확하고 에너지 효율적인 ADA-CIM 프로세서를 제안한다. 제안된 ADA-CIM 프로세서는 28nm CMOS 기술로 시뮬레이션 되었으며, 3.78mm2를 차지한다. 2.77mW를 소비하고 CIFAR-10 (ResNet-20)에서 91.62%의 높은 정확도로 43.1 TOPS/W 에너지 효율을 달성한다.