서지주요정보
Investigating adversarial robustness via booster signal = 부스터 신호를 활용한 적대적 견고성 향상
서명 / 저자 Investigating adversarial robustness via booster signal = 부스터 신호를 활용한 적대적 견고성 향상 / Hong Joo Lee.
발행사항 [대전 : 한국과학기술원, 2023].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8040320

소장위치/청구기호

학술문화관(도서관)2층 학위논문

DEE 23049

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

Deep Neural Networks (DNNs) have shown great performance in various applications such as autonomous driving systems, medical diagnosis, security systems, etc. However, recent works have demonstrated that deep neural networks are highly vulnerable to adversarial attacks. By manipulating the data imperceptibly, it changes the DNNs predictions. Since the existence of adversarial attacks can hurt the reliability of DNNs, it should be released. To defend against adversarial attacks, many defense strategies have been proposed, among which adversarial training has been demonstrated to be the most effective strategy. However, it has been known that adversarial training sometimes hurts natural accuracy. Then, many works focus on optimizing model parameters to handle the problem. Different from the previous approaches, in this research, we propose a new approach to improve the adversarial robustness by using an external signal rather than model parameters. In the proposed method, a well-optimized universal external signal called a booster signal is injected to the outside of the image which does not overlap with the original content. Then, it boosts both adversarial robustness and natural accuracy. The booster signal is optimized in parallel to model parameters step by step collaboratively. Experimental results show that the booster signal can improve both the natural and robust accuracies over the recent state-of-the-art adversarial training methods. Also, optimizing the booster signal is general and flexible enough to be adopted on any existing adversarial training methods.

현재 딥 뉴럴 네트워크 (DNN)이 다양한 분야에서 좋은 성능을 보여주고 있다. 하지만, 최근 연구에 따르면, 딥 뉴럴 네트워크는 적대적 공격에 매우 취약한 것으로 알려져 있다. 적대적 공격이란, 입력 데이터에 인간이 인지할 수 없는 변화를 줘서 딥 뉴럴 네트워크가 오작동 하도록 하는 기술이다. 이러한 적대적 취약성은, 딥 뉴럴 네트워크를 실생활에 적용 하는데에 한계로 작용한다. 특히 딥 뉴럴 네트워크가 예측한 결과와 사람이 인지한 결과에 큰 차이가 발생하며, 이는 딥 뉴럴 네트워크의 신뢰성 하락에 영향을 미친다. 이러한 적대적 공격을 방어 하기 위해서 많은 방어 방법들이 제시 되어 왔으며, 그 중 적대적 학습은 가장 효과적으로 적대적 공격을 방어하는 수단으로 알려져 있다. 적대적 학습이란, 딥 뉴럴 네트워크를 학습하는 과정에서 학습 데이터를 적대적 공격을 받은 데이터를 활용하여 네트워크를 학습하는 방법이다. 하지만 기존의 적대적 학습 방식들은 일반화된 성능을 감소시키는 문제가 있다. 이러한 문제를 해결하기 위해서 본 연구에서는 적대적 견고성을 향상시키기 위한 새로운 프레임워크를 제안한다. 본 연구에서는 외부 신호를 정의하고, 입력에 외부 신호를 더해서 입력 자체를 적대적 공격에 대해서 견고하게 만드는 방법을 제시한다. 또한 제안된 외부 신호는 딥 뉴럴 네트워크의 학습 파라미터와 병행하여 최적화가 가능하여, 기존의 학습 파라미터를 최적화하는 방식과 함께 적용 될 수 있다. 제안된 방법의 유효성을 검증하기 위해 공인 데이터 3개를 이용하여 다양한 실험이 수행되었다. 실험 결과는 제안된 방법이 입력 자체를 적대적 공격에 대해 견고하게 만들 수 있다는 것을 보여준다. 또한 제안된 외부 신호 최적화 방법은 기존에 존재하는 학습 파라미터를 최적화 하는 알고리즘과 병행하여 견고성을 강화 시킬 수 있음을 보여준다.

서지기타정보

서지기타정보
청구기호 {DEE 23049
형태사항 v, 50 p. : 삽도 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 이홍주
지도교수의 영문표기 : Yong Man Ro
지도교수의 한글표기 : 노용만
Including appendix
학위논문 학위논문(박사) - 한국과학기술원 : 전기및전자공학부,
서지주기 References : p. 41-47
주제 Adversarial robustness
Booster signal
External signal
Adversarial training
적대적 견고성
부스터 신호
외부 신호
적대적 학습
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서