서지주요정보
(A) study on reliable assessment of real-world adversarial robustness of AI models = 인공지능 모델의 실세계 적대적 강인성에 대한 신뢰할 수 있는 평가에 관한 연구
서명 / 저자 (A) study on reliable assessment of real-world adversarial robustness of AI models = 인공지능 모델의 실세계 적대적 강인성에 대한 신뢰할 수 있는 평가에 관한 연구 / Junyoung Byun.
발행사항 [대전 : 한국과학기술원, 2023].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8041585

소장위치/청구기호

학술문화관(도서관)2층 학위논문

DEE 23106

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

Although remarkable AI models have been developed for various computer vision tasks, they still remain vulnerable to adversarial examples, which are subtly modified inputs that lead to incorrect predictions. This vulnerability raises concerns about the security, reliability, and robustness of AI models, especially in real-world applications, and it is therefore important to accurately assess their adversarial robustness in advance. In this regard, this dissertation proposes three novel techniques to improve the attack performance of adversarial examples against black-box target models within realistic adversarial attack scenarios: (1) the Object-based Diverse Input technique, which improves the transferability of adversarial examples by rendering images on randomly sampled 3D objects; (2) the Clean Feature Mixup technique, which further improves the transferability by introducing competition into the optimization process of adversarial examples; and (3) the Deformable Patch Projection technique, which facilitates physical-world adversarial attacks by modeling each adversarial patch as a deformable mesh and projecting it onto 3D objects using physics simulation. Comprehensive experimental results show that the proposed techniques provide a more reliable assessment of the adversarial robustness of AI models under realistic attack scenarios, which can contribute to the development of more secure and robust AI systems in the future.

다양한 컴퓨터 비전 작업을 위해 뛰어난 AI 모델들이 개발되었지만, 이들은 잘못된 예측을 유도하도록 미묘하게 수정된 입력인 적대적 예제에 여전히 취약하다. 이러한 취약성은 특히 실세계 애플리케이션에서 AI 모델의 보안, 신뢰성 및 견고성에 대한 우려를 불러일으키며, 따라서 사전에 그들의 적대적 강인성을 정확하게 평가하는 것이 중요하다. 이러한 관점에서, 본 학위 논문에서는 현실적인 적대적 공격 시나리오 안에서 블랙박스 표적 모델에 대한 적대적 예제의 공격 성능을 높이기 위한 세 가지 새로운 기법을 제안한다: (1) 무작위로 샘플링된 3D 객체에 이미지를 렌더링하여 적대적 예제의 전이성을 향상시키는 객체 기반 다양한 입력 기법, (2) 적대적 예제의 최적화 과정에 경쟁을 도입하여 전이성을 더욱 향상시키는 깨끗한 특징 혼합 기법, (3) 각 적대적 패치를 변형 가능한 메쉬로 모델링하고 물리 시뮬레이션을 사용하여 3D 객체에 투사함으로써 물리적 세계의 적대적 공격을 용이하게 하는 변형 가능한 패치 투사 기법이다. 종합적인 실험 결과들은 제안된 기법들이 현실적인 공격 시나리오에서 AI 모델의 적대적 강인성에 대한 더 신뢰할 수 있는 평가를 제공하는 것을 보여주었고 이들은 향후 더 안전하고 견고한 AI 시스템의 개발에 기여할 수 있을 것이다.

서지기타정보

서지기타정보
청구기호 {DEE 23106
형태사항 vii, 75 p. : 삽도 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 변준영
지도교수의 영문표기 : Changick Kim
지도교수의 한글표기 : 김창익
수록잡지명 : "Improving the Transferability of Targeted Adversarial Examples through Object-Based Diverse Input". Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp.15244-15253(2022)
수록잡지명 : "Introducing Competition to Boost the Transferability of Targeted Adversarial Examples through Clean Feature Mixup". Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp.24648-24657(2023)
Including appendix
학위논문 학위논문(박사) - 한국과학기술원 : 전기및전자공학부,
서지주기 References : p. 63-71
주제 Black-box adversarial attack
Real-world attack
AI vulnerabilities
Transfer-based attack
Transferability
Physics simulation
Object-based diverse input
Clean feature mixup
Deformable patch projection
블랙박스 적대적 공격
실세계 공격
인공지능 취약점
전이 기반 공격
전이성
물리 시뮬레이션
객체 기반 다양한 입력
깨끗한 특징 혼합
변형 가능한 패치 투사
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서