Under the conditional independence assumption among local features , naive bayes nearest neighbor classifier (NBNN) computes the direct classification results without any learning or training phase. It outperforms all the previous works in non-parametric classifiers. However, among the local features, there are strong dependences. This assumption, which is obviously against the compositionality of objects, weaken the performance of NBNN. Therefore, we propose a novel Bayesian Network for image classification, which consider the dependence among the local features. In order to utilize the dependences to improve the classification results, we further define the relationship between the high-level and low-level features, by which we optimize the Bayesian Network with relations between high-level and low-level features. By testing our method against previous works in the dataset of Caltech101, our optimized method achieves up to 20% relative accuracy improvement over prior methods in the similar time consuming with NBNN (less than 0.001s difference).
국소 특징들이 서로 조건부 독립이라는 가정을 갖고 있는 나이브 베이지안 근접 이웃 분류(Naive Bayes Nearest Neighbor) 알고리즘은 학습 혹은 트레이닝 단계를 거치지 않고 직접적으로 분류를 할 수 있다는 장점을 갖고 있다. 실제로도 NBNN 계열의 알고리즘들은 기존의 비 매개 변수 분류기법 들보다 우수한 성능을 가질 수 있음이 입증되었다. 하지만 국소 특징 간의 조건부 독립이라는 가정은 실제와 맞지 않다는 약점, 즉 특징 간의 중요한 상관 관계를 놓칠 가능성을 안고 있다. 때문에 이 부분이 NBNN의 성능의 제약을 가져오는 단점을 해결하기 위해 본 연구에서는 이미지 분류를 위한 새로운 베이지안 네트웍 기반의 알고리즘을 제안하고 그 결과를 검증하였다. 정확도의 향상을 위해 국소 특징들간의 연관 관계를 패치의 크기와 이미지 상의 위치를 고려하여 고/저 차원으로 나누어 분석하였으며, 이를 통해 특징들 간의 연관성을 추출하는 과정에서 베이지안 네트웍의 최적화를 수행하였다. Caltech101 데이터셋을 통해 검증한 본 알고리즘은 기존 알고리즘들에 비해 최대 20% 까지의 정확도 향상을 보였으며 동시에 계산 시간 면에서는 큰 차이를 보이지 않음을 확인하였다.