서지주요정보
Study on neural networks and transfer learning for synthetic aperture radar images change detection = 합성개구레이더 영상 변화 감지를 위한 신경망과 전이 학습에 관한 연구
서명 / 저자 Study on neural networks and transfer learning for synthetic aperture radar images change detection = 합성개구레이더 영상 변화 감지를 위한 신경망과 전이 학습에 관한 연구 / Youdong Chang.
발행사항 [대전 : 한국과학기술원, 2022].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8038931

소장위치/청구기호

학술문화관(도서관)2층 학위논문

MSPE 22001

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

In this paper, convolutional neural network-based models for detecting changes in synthetic aperture radar(SAR) images are dealt with. A big model is divided into two models which are for removing speckle, a characteristic of SAR images, from an image and change detection from images. After that, the two models are transfer-learned and selected as a model for detecting changes in the SAR images. The model for removing speckle is selected by the most accurate method among basic deep CNN with different number of parameters and loss functions, and the model for detecting changes is selected from image semantic segmentation models. The speckle removal model selects one of the models with 8 or 16 layers, and the loss function is a combination of mean absolute error(MAE) or mean squared error(MSE) and multi-scale structural similarity(MS-SSIM) error. In the change detection model, the model was selected by comparing the fully convolutional network(FCN), the U-Net++, and the proposed shallow U-Net++, and the distance of dissimilar features was learned through similarity learning using the distance loss function. The dataset for supervised learning of the three models (speckle removal, change detection, and SAR images change detection) appearing in this paper was used by transforming the distributed satellite image dataset. The SAR images change detection model tried to increase the accuracy and speed by using transfer learning using the parameters of the learned speckle removal and change detection model as initial values. When the end-to-end learning model learned by simply connecting the two models and the transfer learning model were trained with the same epoch and time, the model using transfer learning showed better quantitative, qualitative accuracy and learning speed. Even when the model was trained until convergence, the model using transfer learning showed better performance.

본 논문에서는 합성개구레이더 이미지의 변화 감지를 위한 합성곱 신경망 기반의 모델을 다룬다. 합성개구레이더 이미지의 특징인 스페클을 이미지에서 제거하는 모델과 이미지 변화 감지를 위한 모델로 나누어 따로 학습한다. 이후 두 모델을 전이 학습하여 합성개구레이더 이미지의 변화 감지를 위한 모델로 선정한다. 스페클 제거를 위한 모델은 파라미터의 개수와 실손 함수가 다른 기본 심층 합성곱 신경망 중 가장 정확도가 높은 방법을 사용하며, 변화 감지를 위한 모델은 영상 분할 모델 중 선택한다. 스페클 제거 모델은 8개, 16 개 레이어를 가진 모델 중 하나를 선정하며, 손실 함수는 mean absolute error(MAE) 혹은 mean squared error(MSE)와 multi-scale structural similarity(MS-SSIM) error의 조합을 사용하였다. 변화 감지 모델에서 는 제안하는 얕은 U-Net++와 U-Net++, fully convolutional network(FCN)을 비교하여 모델 선정을 하며, 거리 손실 함수를 이용한 유사도 학습을 통해 유사하지 않은 특징들의 거리가 멀어지도록 학습을 하였다. 본 논문에서 등장하는 세 개의 모델(스페클 제거, 변화 감지, 합성개구레이더 이미지 변화 감지)을 지도 학습하기 위한 데이터 세트는 배포된 위성 이미지 데이터 세트를 변형하여 사용하였다. 합성개구레이더 이미지 변화 감지 모델은 학습된 스페클 제거 모델과 변화 감지 모델의 파라미터를 초기값으로 이용하는 전이 학습을 이용하여 정확도와 속도를 높이고자 하였다. 단순히 두 모델을 연결하여 학습한 end-to-end 학습 모델과 전이 학습 모델을 동일한 에포크, 시간으로 학습했을 때 전이 학습을 이용한 모델이 정량적, 정성적 정확도와 학습 속도에서 더 나은 모습을 보였다. 모델이 수렴할 때까지 학습을 진행했을 경우에도 전이학습을 이용한 모델이 나은 성능을 보였다.

서지기타정보

서지기타정보
청구기호 {MSPE 22001
형태사항 iv, 53 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 장유동
지도교수의 영문표기 : Hyochoong Bang
지도교수의 한글표기 : 방효충
공동지도교수의 영문표기 : Miyoung Park
공동지도교수의 한글표기 : 박미영
학위논문 학위논문(석사) - 한국과학기술원 : 우주탐사공학학제전공,
서지주기 References : p. 49-51
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서