서지주요정보
Registration-based motion compensation in 3D medical images = 삼차원 의료영상에서의 정합기반 움직임 보상 기법
서명 / 저자 Registration-based motion compensation in 3D medical images = 삼차원 의료영상에서의 정합기반 움직임 보상 기법 / Woo-Hyun Nam.
발행사항 [대전 : 한국과학기술원, 2013].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8025502

소장위치/청구기호

학술문화관(문화관) 보존서고

DEE 13055

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

Multi-modality medical images are widely used to provide complementary information to a clinician for diagnosis, treatment planning, and interventional procedures. They can also be used to provide supplementary information in alleviating the image degradation or improving the quality of target image. In those applications, accurate alignment via registration among multi-modal images or uni-modal images is imperative. This dissertation covers two kinds of registration-based motion compensation frameworks in 3D medical images: global motion compensation of computed tomography/magnetic resonance (CT/MR) images with respect to real-time ultrasound (US) images; and respiratory motion compensation in thoracic or abdominal positron emission tomography (PET) images. Most existing methods for 3D US-CT/MR registration require manual operation to determine initial registration transformation. In this dissertation, a novel feature-based registration algorithm between intra-operative 3D B-mode US and pre-operative 3D CT/MR images of the liver is proposed for automatic global motion compensation. In the proposed algorithm, to make the automation more robust to the US probe position and the degree of the initial displacement between two images, we utilize the geometric relation in vascular structures which is nearly invariant to the imaging modality. To effectively utilize the relation even in the non-rigid local deformation due to different respiratory phases, we proposed a robust graph-based edge matching algorithm. We also introduce a refinement process by jointly using vessel and liver surface information based on affine transformation to improve the registration accuracy. Experimental results on synthesized datasets and various clinical datasets show that registration error between anatomical features of US and CT images is about 3 mm on average even with a certain degree of local deformation as well as a large initial displacement. Meanwhile, for the respiratory motion compensation in thoracic or abdominal PET images, existing methods are mainly based on registration among multiple respiratory-gated PET images. Since respiratory-gated PET images may be statistically noisy and degraded due to inaccurate attenuation correction, the motion compensation result is usually unreliable and inconsistent. In this dissertation, in order to obtain an improved motion compensation result, we suggest to utilize CT and/or MR images of high quality instead of the gated PET images for the registration. Based on those images, we propose two kinds of novel frameworks for phase-matched attenuation correction and motion compensation of respiratory-gated PET, respectively. For the attenuation correction, the proposed frameworks manipulate virtual 4D CT image, which is generated from two respiratory-phase low-dose CT images or from a single CT image and additional two respiratory-phase MR images. They also utilize CT-driven motion fields or MR-driven motion fields for motion compensation. To realize the those frameworks, we propose a region-based approach for non-rigid registration between body CT (or MR) images and suggest a selection scheme of 3D CT images that are phase-matched to each respiratory-gated sinogram. The proposed frameworks are evaluated qualitatively and quantitatively by using patient datasets including lung and/or liver lesion(s). Experimental results show that they can provide much clearer organ boundaries and more accurate lesion information than conventional methods without increasing the radiation dose. Since the second framework can be easily extended for the generation of motion compensated 4D PET-CT-MR images, which are spatially and temporally synchronized, we expect that the complementary spatial information along with the temporal information can increase the clinical value in the PET-image-based applications.

다중 의료 영상은 진단 및 치료계획 수립, 시술 과정에 있어서, 임상의에게 의미있는 상호보완적인 정보들을 제공해줄 수 있으므로, 활발하게 활용되고 있다. 뿐만 아니라, 다중 의료 영상은, 특정 대상 영상의 왜곡현상 보정에 필요한 유용한 부가정보를 제공할 수 있기 때문에, 대상 영상의 화질 개선을 위해서도 중요하게 사용 될 수 있다. 이런 응용들에 있어서, 보다 효과적인 정보 활용을 위해서는, 다중 또는 단일 영상들간의 정합과정을 통한, 영상 정렬이 필수적으로 요구된다. 본 학위 논문에서는 정합기법을 기반으로 하는 삼차원 의료 영상에서의 서로 다른 두 가지 움직임 보정 문제들에 대해 다루려고 한다. 첫 번째 주제는 실시간 초음파 영상에 대한 고화질 전산단층촬영/자기공명(CT/MR)영상들의 전반적 움직임 보정 연구이며, 두 번째 주제는 흉, 복부 양전자 방출 단층 촬영(PET)영상에서의 호흡 움직임 보정 연구이다. 기존의 삼차원 초음파-CT/MR 영상 정합 기법들은 일반적으로 초기 정합 변환식을 구하기 위한 사용자의 수동 조작을 반드시 필요로 하는 문제가 있다. 본 학위 논문에서는, 간 영역 초음파 및 CT/MR영상간의 완전 자동 전반적 움직임 보정을 위해, 특징점 기반의 정합 방안을 제안하였다. 제안 알고리즘에서는, 초음파 프로브의 위치나 방향, 그리고 두 영상들간의 초기 변위 상태 등에 강인한 자동 정합을 위해서, 서로 다른 영상 장치로부터 영상화하더라도, 그 특성이 거의 변하지 않는, 혈관 구조의 기하학적인 상호연관관계를 활용하였다. 또한, 서로 다른 호흡 상태 등으로 인한, 두 영상들간의 비강체적인 국소변형이 존재하는 상황에서도, 강인한 자동 정합을 달성시키기 위해, 혈관 구조의 기하학적 상호연관관계를 보다 효과적으로 활용할 수 있는, 그래프이론 기반의 에지 매칭 알고리즘을 제안하였다. 뿐만 아니라, 정합의 성능을 더욱 향상시키기 위하여, 횡격막 및 간 경계면 정보까지 동시에 사용하여, 어파인 변형모델기반의 정합개선과정을 소개하였다. 제안 알고리즘의 성능을 평가하기 위해, 다양한 데이터 획득 상황을 모사한 가상의 데이터세트들 및 다양한 조건에서 실제로 획득한 임상데이터세트들이 사용되었다. 이 데이터세트들을 이용한 실험을 통해, 국소변형 및 상당히 큰 초기 변위가 존재하는 상황에서도, 해부학적 기준점들 기준으로 약 3mm의 우수한 정합 정확도를 보이는 것을 확인할 수 있었다. 이는 실제 임상 시술에서 요구되는 정합의 정확도 범위내의 의미있는 결과로 평가된다. 한편, 양질의 흉, 복부 영역의 PET영상을 생성하기 위해, 기존의 기법들은 주로 호흡 게이팅되어 분류된 여러 호흡 상태에서의 PET영상들간의 정합을 기반으로, 호흡 움직임 보정을 수행하였다. 그러나, 게이팅된 PET영상은 많은 통계학적 노이즈 및 부정확한 감쇠보정 등으로 인해 영상의 질이 저하되어있어서, 이를 이용한 호흡 움직임 보정의 성능이 신뢰할 수 없는 문제점이 있다. 본 학위 논문에서는, 호흡 움직임 보정의 성능을 극대화 시키기 위하여, 게이팅된 PET영상대신, 고화질의 CT 또는 MR 영상들을 사용하는 것을 제안하였다. 또한 이 영상들을 이용하여, 호흡 별 감쇠보정 및 호흡 움직임 보정을 위한 서로 다른 두 가지 방안을 제안하였다. 호흡 별 감쇠보정을 위해, 제안 방안은 서로 다른 두 호흡에서 획득한 저 피폭 CT영상들 또는 한 호흡에서 획득한 CT영상 및 서로 다른 두 호흡에서 획득한 MR영상들을 이용하여 생성한, 가상의 사차원 CT영상을 활용한다. 또한 호흡 움직임 보정을 위해서는, 높은 정확도를 가지는 CT 및 MR 영상들로부터 유도된 움직임 변형정보를 이용하였다. 위 두 방안을 실현시키기 위해, 흉, 복부 영역 정합에 최적화된 영역 기반 비강체 정합기법을 제안하였다. 또한 가상으로 생성된 사차원 CT영상 중, 게이팅된 PET사이노그램에 정확하게 대응되는 삼차원 CT영상을 선택하기 위한 영상기반의 매칭기법을 제안하였다. 제안하는 방안들은 폐 및 간종양 환자데이터세트들을 이용하여, 정량적 및 정성적으로 평가되었으며, 방사선 피폭량을 증가시키지 않으면서도, 기존 경쟁 방법들에 비해, 종양 정보 및 장기의 경계 정보를 월등히 선명하게 개선시키는 것을 관찰할 수 있었다. MR영상을 이용한 제안 방안은 간단한 확장으로, 시, 공간적으로 동기화된 사차원 PET-CT-MR 영상들의 제공할 수 있으므로, PET영상 기반의 진단 및 치료에 보다 효과적으로 활용 될 수 있을 것으로 기대된다.

서지기타정보

서지기타정보
청구기호 {DEE 13055
형태사항 ix, 120 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 남우현
지도교수의 영문표기 : Jong-Beom Ra
지도교수의 한글표기 : 나종범
수록잡지명 : "Automatic registration between 3D intra-operative ultrasound and pre-operative CT images of the liver based on robust edge matching". Physics in Medicine and Biology, vol. 57, pp. 69-91(7 Ja)
학위논문 학위논문(박사) - 한국과학기술원 : 전기및전자공학과,
서지주기 References : p. 99-108
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서