Neural Architecture Search (NAS) has gained attraction due to superior classification performance. Differentiable Architecture Search (DARTS) is a popular NAS method because of its computational efficiency. To limit computational resources DARTS makes numerous approximations. These approximations result in inferior performance. We propose to fine-tune DARTS using fixed operations as they are independent of these approximations. Our method offers a good trade-off between the number of parameters and classification accuracy. Furthermore, based on the influence of input on the performance of a neural network, we propose a dual-stem approach instead of a single-stem approach. Our approach improves the top-1 accuracy on Fashion-MNIST, CompCars and MIO-TCD datasets by 0.56%, 0.50%, and 0.39%, respectively compared to the state-of-the-art approaches. Our approach performs better than DARTS, improving the accuracy by 0.28%, 1.64%, 0.34%, 4.5%, and 3.27% compared to DARTS, on CIFAR-10, CIFAR-100, Fashion-MNIST, Com-pCars, and MIO-TCD datasets, respectively.
신경망 구조 탐색법(NAS)은 우수한 분류 성능으로 인하여 많은 인기를 얻었다. 미분 구조 탐색(DARTS)은 좋은 컴퓨팅 효율성으로 인하여 널리 사용되는 신경망 구조 탐색 기법이다. 계산 리소스를 제한하기 위해 DARTS는 수많은 근사치를 만든다. 이러한 근사치는 모델의 성능 저하를 초래한다. 우리는 DARTS의 근사치 계산 방식과 무관한 고정된 연산을 통해 DARTS를 미세 조정하는 방식을 제안한다. 우리의 기법은 매개변수 수와 분류 정확도 사이에서 좋은 균형을 보여준다. 또한, 신경망의 성능에 대한 입력층의 영향을 바탕으로, 한 단계 접근 방식 대신 두 단계 접근 방식을 제안한다. 우리의 접근 방식은 최첨단 접근 방식에 비해 Fashion-MNIST, CompCars 및 MIO-TCD 데이터 세트의 최고 정확도를 각각 0.56 %, 0.50 % 및 0.39 % 향상시켰다. CIFAR-10, CIFAR-100, Fashion-MNIST, CompCars 및 MIO-TCD에서는 DARTS보다 정확도가 0.28 %, 1.64 %, 0.34 %, 4.5 % 및 3.27 % 향상되었다.