This thesis presents a new kernel selection strategy for regression models. For the approximation of continuous target functions, regression models with kernel functions can be trained for the given samples generated from the target functions. These regression models are usually trained by the well known training method such as the support vector regression (SVR) or relevance vector regression (RVR). In this training, the critical factor for the performance of regression is the shape of kernel functions, for example, the centers and width of the kernels. One of the methods in the classification problems, in which the outputs are class labels rather than the values, is using the measure of kernel alignment. In this thesis, this concept of kernel alignment, is applied to the regression problems using the correlation measure and the contribution of each kernel to the regression models is analyzed.
이 논문은 회귀모델을 위한 커널 함수의 선택에 관해 새로운 방법을 제시한다. 근사시키려는 타깃 연속함수에 대해, 우리는 타깃 함수로부터 생성된 표본 데이터를 이용하여 커널 함수로 구성된 회귀모형을 학습 시킨다. 이런 회귀모형들은 잘 알려진 SVR(Support Vector Regression)이나 RVR(Relevance Vector Regression)과 같은 방법들을 이용해 주로 학습 시킨다. 이 때, 중심위치나 너비 같은 커널 함수의 모양은 회귀모형의 성능에 결정적인 영향을 준다. 함수의 근사 문제가 아니라 어느 부류에 속하는 지를 찾아야 하는 분류 문제에 있어서는, 커널의 정렬 상태를 측정하여 문제 해결에 활용하기도 한다. 이 논문에서는 커널간 상관도(Correlation)와 각 커널이 회귀모형 내에서 갖는 기여도를 중심으로 커널 정렬에 관해 연구하고 분석하였다.