A Mixed-mode Computing-in memory (CIM) processor for the mixed-precision Deep Neural Network (DNN) processing is proposed. Due to the bit-serial processing for the multi-bit data, the previous CIM processors could not exploit the energy-efficient computation of mixed-precision DNNs. This paper proposes an energy-efficient mixed-mode CIM processor with two key features: 1) Mixed-Mode Mixed-precision CIM (M3-CIM) which achieves 55.46% energy efficiency improvement. 2) Digital-CIM for In-memory MAC for the increased throughput of M3-CIM. The proposed CIM processor was simulated in 28nm CMOS technology and occupies 1.96 mm2. It achieves a state-of-the-art energy efficiency of 161.6 TOPS/W with 72.8% accuracy at ImageNet (ResNet50).
본 논문은 혼합 정밀도 심층 신경망 (DNN) 연산을 위한 혼성 모드 메모리 내 컴퓨팅 (CIM) 프로세서를 제안한다. 기존 CIM 프로세서는 다중 비트 입력을 비트 직렬적으로 처리하여 에너지 효율적인 혼합 정밀도 DNN 연산의 이득을 취할 수 없었다. 본 논문은 에너지 효율적인 혼성모드 CIM 프로세서를 위한 2가지 주요 기능을 제안한다: 1) 혼성모드 혼합 정밀도 CIM (M3-CIM)은 55.46%의 에너지 효율을 개선한다. 2) In-memory MAC을 위한 디지털 CIM은 M3-CIM의 처리량을 개선한다. 제안된 CIM 프로세서는 28nm CMOS 기술로 시뮬레이션 되었으며, 1.96mm2을 차지한다. 결과적으로 72.8%의 높은 정확도로 161.6 TOPS/W 에너지 효율을 ImageNet (ResNet-50)에서 달성한다.