In this paper, we address an Artificial Intelligence (AI) edge device macro for machine learning (ML) neural networks (NN). The data movement contributes most of the energy consumption in a conventional digital AI edge device. Therefore, to minimize the data movement in the macro device, In-Memory Computing (IMC) method has been proposed in earlier works. Since IMC reduces energy and latency by a great amount, this paper proposes a SRAM macro for energy-efficient IMC using analog charge domain computation for machine learning neural networks.
이 논문에서는 머신러닝 인공지능 신경망을 위한 인공지능 엣지 디바이스 연산 매크로를 제시한다. 인고지능 디바이스에 있어서 기존 디지털 방식의 연산은 많은 연산이 필요하여 데이터의 이동이 전체 에너지에서 큰 비중을 차지한다. 그렇기에 데이터 움직임을 최소화 시킨 방법으로 인메모리 컴퓨팅이라는 효율적인 방법이 존재한다. 본 논문에서는 인메모리 컴퓨팅을 활용한 방법이 에너지와 데이터 처리량을 늘리는데 매우 효과적임으로, SRAM을 활용한 전하 기반 아날로그 방식의 회로 연산을 수행하여 인공지능 신경망을 위한 연산을 더욱 더 효율적으로 계산하는 방안을 제시한다.