The linear discriminant analysis (LDA), aiming at maximizing the ratio of the betweenclass
distance to the within-class distance of data, is one of the most fundamental and
powerful feature extraction methods. The LDA has been successfully applied in many
applications such as facial recognition, text recognition, and image retrieval. However,
due to the singularity of the within-class scatter, the LDA becomes ill-posed for small
sample size (SSS) problems where the dimension of data is larger than the number of data.
To extend the applicability of LDA in SSS problems, the null space-based LDA (NLDA)
was proposed as an extension of the LDA. The NLDA has been shown in the literature to
provide a good discriminant performance for SSS problems: Yet, as the original scheme
for the feature extractor (FE) of the NLDA suffers from a complexity burden, a number
of modified schemes based on QR factorization and eigen-decomposition have since been
proposed for complexity reduction. In this dissertation, by transforming the problem of
finding the FE of the NLDA into a linear equation problem, a novel scheme is derived,
offering a further reduction of the complexity.
자료의 부류안 거리에 대한 부류사이 거리의 비를 가장 크게 하는 선형 판별 분석은 가장 기본적이고 널리 쓰이는 특징 추출 방법들 가운데 하나이다. 선형 판별 분석은 얼굴 인식, 문자 인식, 영상 복원과 같은 여러 응용 분야에서 훌륭하게 쓰여 왔다. 하지만, 작은 표본 크기 문제에는 - 곧, 자료의 차원이 자료의 수보다 클 때에는 - 부류안 분산 행렬의 특이성 때문에 선형 판별 분석을 쓰기 어렵다. 이에, 작은 표본 크기 문제에도 쓸 수 있도록, 선형 판별 분석의 확장 가운데 하나로서 영 공간 기반 선형 판별 분석이 제안되었다.
영 공간 기반 선형 판별 분석은 작은 표본 크기 문제에서 판별 성능이 좋다는 사실을 여러 연구에서 보였다. 그러나, 영 공간 기반 선형 판별 분석을 써서 특징을 추출하는 원래 기법은 복잡도가 너무 높다는 문제가 있으며, 이를 해결하고자 큐알 분해와 고유값 분해를 바탕으로 하는 몇 가지 기법들이 제안된 바 있다. 이 논문에서는 영 공간 기반 선형 판별 분석을 써서 특징을 추출하는 문제를 선형 방정식 문제로 바꾸어 복잡도가 낮은 새로운 기법을 제안하고, 그 성능과 복잡도를 다른 방법들과 견주어 보았다.