In this thesis, we propose two kinds of super-resolution algorithms using focal stack and image fusion technique. To begin with, we introduce focal stack based image super-resolution technique. Contrary to previous algorithms which use image misalignment to deduce ``missing``
details in a super-resolution image, we analyze the mutual information inherent in
different defocus kernels to infer high resolution details that were missing
in each of the individual low resolution out-of-focus image in a focal stack. As a by-product, this algorithm extends the depth-of-field to produce an all-in-focus super-resolution image. The effectiveness of
this algorithm is demonstrated with quantitative analysis using synthetic
examples and qualitative analysis using real-world examples. Moreover, we present another super-resolution method using image fusion technique called pan-sharpening that can produce high quality high-resolution multispectral image by fusing a high-resolution panchromatic image with a low resolution multispectral image. Unique in this approach are the color samples relocation algorithm and the optimization based edge aware interpolation method which protect the reconstructed images from aliasing and color diffusion artifacts around edge areas that are commonly arose in previous pan-sharpening algorithms. This approach is robust to misalignment errors between the high-resolution panchromatic image and the low resolution multispectral image. We evaluate our results quantitatively and qualitatively on both synthetic and real world satellite images. Comparing our results with results from previous methods, our results are sharper, aliasing-free, and with less color diffusion artifacts.
이 논문에서는 다초점 이미지 스택 (focal stack) 을 이용한 방법 과 이미지 융합 (image fusion) 을 이용한 두가지 타입의 이미지 고해상화 알고리즘들을 소개한다. 먼저 다초점 이미지 스택 기반 이미지 고해상화 기술을 소개하는데, 이는 ``잃어버린`` 이미지상의 세부정보를 추론해 내기 위해 이미지간의 공간적 불일치성을 이용했던 기존의 알고리즘들과는 다르게, 우리는 이미지 스택 내에서 각각의 다른 형태로 초점이 맞지 않는 이미지들 내에서 잃어버린 고해상도 이미지의 세부정보를 추론하기 위해, 다른 형태의 비초점 커널들 내의 상호적인 정보들을 분석한다. 부산물로써, 우리의 알고리즘은 모든 물체에 대해 초점이 맞는 고해상 이미지를 만들기 위해 피사도 심계를 확장한다. 우리의 알고리즘의 효율성은 합성 이미지들을 이용한 정량적 분석과 실제 이미지를 이용한 질적 분석을 통해 입증될것이다. 또한, 이미지 융합을 이용한 팬 샤프닝 이라 불리는 다른 형태의 이미지 고해상화 기술을 소개한다. 낮은 해상도의 다중 스펙트럼 이미지와 고해상도 단일 스펙트럼 이미지를 합성해 고해상도 다중 스펙트럼 이미지를 합성하는 방법이다. 기존의 방법과 다른 점은, 기존의 알고리즘에서 흔히 생겨났었던 이미지 흐려짐 과 색 번짐 현상들로부터 재구축된 이미지를 보호하기 위해 색 샘플 재배치 알고리즘과 최적화 기반 모서리 인식 보간법을 사용했다는 점이다. 이 방법은 고해상도 단일 스펙트럼 이미지와 저해상도 다중스펙트럼 이미지 사이의 위치적 불일치 에러에 강건하다. 팬 샤프닝의 결과이미지는 양적, 질적인 방법을 합성 이미지와 실제 인공위성 이미지를 통해 평가하였다. 이전의 방법들과 우리의 방법을 비교함으로써, 우리의 결과가 더 선명하고, 흐려지지 않으며, 작은 색 번짐을 가짐을 보일것이다.