The linear discriminant analysis (LDA), as one of the most fundamental and powerful feature extraction methods, has been successfully applied in many pattern recognition (PR) problems. Although the LDA and LDA-related methods can cope well with linearly separable PR problems, they generally result in degraded performance for linearly unseparable problems. In order to deal with linearly unseparable problems more effectively, the kernel discriminant analysis (KDA) has been proposed by extending the LDA into the kernel space. The KDA, aiming at maximizing the ratio of the kernel betweenclass distance to the kernel within-class distance of data, generally provides good PR performance for most of PR problems including facial recognition, text recognition, and image retrieval. Due to the eigen-decomposition technique adopted, however, the original scheme for the feature extraction with the KDA suffers from a high complexity burden. In this dissertation, we derive a transformation of the KDA into a linear equation problem, and propose a novel scheme for the feature extraction with the KDA. The proposed scheme is shown to provide us with a reduction of complexity without degradation of PR performance. In addition, to enhance the PR performance further, we address the incorporation of regularization into the proposed scheme.
선형 판별 분석은 가장 기본적이고 널리 쓰이는 특징 추출 방법들 가운데 하나로서 패턴 인식 문제에서 널리 쓰여왔다. 선형 판별 분석과 그 관련 방법들이 선형적으로 나누어지는 문제는 잘 풀지만, 선형적으로 나누어지지 않는 문제에서는 일반적으로 그 성능이 떨어진다. 이에, 선형적으로 나누어지지 않는 패턴 인식 문제를 좀더 효과적으로 다루고자, 선형 판별 분석을 커널 공간으로 확장한 커널 판별 분석이 제안되었다.
커널 공간에서 부류 안 거리에 대한 부류 사이 거리의 비를 가장 크게 하는 것을 목표로 하는 커널 판별 분석은 얼굴 인식, 문자 인식, 영상 복원을 비롯한 대부분의 패턴 인식 문제에서 성능이 뛰어나다. 그러나, 커널 판별 분석을 써서 특징을 추출하는 원래의 기법은 고유 분해 방법을 쓰기 때문에 그 복잡도가 너무 높다. 이에, 이 논문에서는 커널 판별 분석을 써서 특징을 추출하는 문제를 선형 방정식 문제로 바꾸어 복잡도가 낮은 새로운 기법을 제안하고, 그 인식 성능과 복잡도를 다른 기법들과 견주어 보았다. 또한, 제안한 기법에 정규화를 더하여 그 인식 성능을 더욱 높이는 문제를 함께 다루었다.