In this paper, convolutional neural network-based models for detecting changes in synthetic aperture radar(SAR) images are dealt with. A big model is divided into two models which are for removing speckle, a characteristic of SAR images, from an image and change detection from images. After that, the two models are transfer-learned and selected as a model for detecting changes in the SAR images. The model for removing speckle is selected by the most accurate method among basic deep CNN with different number of parameters and loss functions, and the model for detecting changes is selected from image semantic segmentation models. The speckle removal model selects one of the models with 8 or 16 layers, and the loss function is a combination of mean absolute error(MAE) or mean squared error(MSE) and multi-scale structural similarity(MS-SSIM) error. In the change detection model, the model was selected by comparing the fully convolutional network(FCN), the U-Net++, and the proposed shallow U-Net++, and the distance of dissimilar features was learned through similarity learning using the distance loss function. The dataset for supervised learning of the three models (speckle removal, change detection, and SAR images change detection) appearing in this paper was used by transforming the distributed satellite image dataset. The SAR images change detection model tried to increase the accuracy and speed by using transfer learning using the parameters of the learned speckle removal and change detection model as initial values. When the end-to-end learning model learned by simply connecting the two models and the transfer learning model were trained with the same epoch and time, the model using transfer learning showed better quantitative, qualitative accuracy and learning speed. Even when the model was trained until convergence, the model using transfer learning showed better performance.
본 논문에서는 합성개구레이더 이미지의 변화 감지를 위한 합성곱 신경망 기반의 모델을 다룬다. 합성개구레이더 이미지의 특징인 스페클을 이미지에서 제거하는 모델과 이미지 변화 감지를 위한 모델로 나누어 따로 학습한다. 이후 두 모델을 전이 학습하여 합성개구레이더 이미지의 변화 감지를 위한 모델로 선정한다. 스페클 제거를 위한 모델은 파라미터의 개수와 실손 함수가 다른 기본 심층 합성곱 신경망 중 가장 정확도가 높은 방법을 사용하며, 변화 감지를 위한 모델은 영상 분할 모델 중 선택한다. 스페클 제거 모델은 8개, 16 개 레이어를 가진 모델 중 하나를 선정하며, 손실 함수는 mean absolute error(MAE) 혹은 mean squared error(MSE)와 multi-scale structural similarity(MS-SSIM) error의 조합을 사용하였다. 변화 감지 모델에서 는 제안하는 얕은 U-Net++와 U-Net++, fully convolutional network(FCN)을 비교하여 모델 선정을 하며, 거리 손실 함수를 이용한 유사도 학습을 통해 유사하지 않은 특징들의 거리가 멀어지도록 학습을 하였다. 본 논문에서 등장하는 세 개의 모델(스페클 제거, 변화 감지, 합성개구레이더 이미지 변화 감지)을 지도 학습하기 위한 데이터 세트는 배포된 위성 이미지 데이터 세트를 변형하여 사용하였다. 합성개구레이더 이미지 변화 감지 모델은 학습된 스페클 제거 모델과 변화 감지 모델의 파라미터를 초기값으로 이용하는 전이 학습을 이용하여 정확도와 속도를 높이고자 하였다. 단순히 두 모델을 연결하여 학습한 end-to-end 학습 모델과 전이 학습 모델을 동일한 에포크, 시간으로 학습했을 때 전이 학습을 이용한 모델이 정량적, 정성적 정확도와 학습 속도에서 더 나은 모습을 보였다. 모델이 수렴할 때까지 학습을 진행했을 경우에도 전이학습을 이용한 모델이 나은 성능을 보였다.