In this paper, we focus on the defense model in response to adversarial attacks on the deep learning model in image classification and semantic segmentation task. Currently, deep learning is used in many fields and shows excellent performance in computer vision tasks such as image classification and semantic segmentation. However, it has been found that the deep learning model is highly vulnerable to small perturbation designed to attack the model against what it calls an adversarial attack. In this paper, we propose a preprocessing method against adversarial attacks and neutralize the effect of the adversarial attacks. More specifically, in image classification, we propose a preprocessing method using the tensor decomposition method and propose a denoise autoencoder in the semantic segmentation model. The model can be defended without modification, and our method shows that a relatively simple method can defend adversarial attacks.
이 논문에서는 이미지 분류와 시맨틱 분할에서 딥러닝 모델에 대한 적대적 공격에 대응한 방어 모델에 관한 연구를 다루었다. 현재 딥러닝은 많은 영역에서 쓰이고 있으며, 이미지 분류, 시맨틱 분할 등의 컴퓨터 비전 분야에서 뛰어난 성능을 보여주고 있다. 하지만 딥러닝 모델은 적대적 공격이라 불리우는, 모델을 공격하게끔 설계된 작은 조작에 취약하다는 점이 발견되었다. 이 논문에서는 이러한 적대적 공격에 대응하여 이미지를 전처리하여 적대적 공격의 효과를 무력화하는 방안을 제시한다. 좀 더 상세히 말하면, 이미지 분류에서는 텐서 분해를 통한 전처리 방안을, 시맨틱 분할에서는 디노이즈 오토인코더를 이용한 전처리 방안을 제안한다. 제안된 방안은 방어하고자하는 모델을 수정하지 않고 그대로 방어할 수 있다는 것과 비교적 간단한 방법으로 적대적 공격을 무력화 시킬 수 있다는 것을 보였다.