Although remarkable AI models have been developed for various computer vision tasks, they still remain vulnerable to adversarial examples, which are subtly modified inputs that lead to incorrect predictions. This vulnerability raises concerns about the security, reliability, and robustness of AI models, especially in real-world applications, and it is therefore important to accurately assess their adversarial robustness in advance. In this regard, this dissertation proposes three novel techniques to improve the attack performance of adversarial examples against black-box target models within realistic adversarial attack scenarios: (1) the Object-based Diverse Input technique, which improves the transferability of adversarial examples by rendering images on randomly sampled 3D objects; (2) the Clean Feature Mixup technique, which further improves the transferability by introducing competition into the optimization process of adversarial examples; and (3) the Deformable Patch Projection technique, which facilitates physical-world adversarial attacks by modeling each adversarial patch as a deformable mesh and projecting it onto 3D objects using physics simulation. Comprehensive experimental results show that the proposed techniques provide a more reliable assessment of the adversarial robustness of AI models under realistic attack scenarios, which can contribute to the development of more secure and robust AI systems in the future.
다양한 컴퓨터 비전 작업을 위해 뛰어난 AI 모델들이 개발되었지만, 이들은 잘못된 예측을 유도하도록 미묘하게 수정된 입력인 적대적 예제에 여전히 취약하다. 이러한 취약성은 특히 실세계 애플리케이션에서 AI 모델의 보안, 신뢰성 및 견고성에 대한 우려를 불러일으키며, 따라서 사전에 그들의 적대적 강인성을 정확하게 평가하는 것이 중요하다. 이러한 관점에서, 본 학위 논문에서는 현실적인 적대적 공격 시나리오 안에서 블랙박스 표적 모델에 대한 적대적 예제의 공격 성능을 높이기 위한 세 가지 새로운 기법을 제안한다: (1) 무작위로 샘플링된 3D 객체에 이미지를 렌더링하여 적대적 예제의 전이성을 향상시키는 객체 기반 다양한 입력 기법, (2) 적대적 예제의 최적화 과정에 경쟁을 도입하여 전이성을 더욱 향상시키는 깨끗한 특징 혼합 기법, (3) 각 적대적 패치를 변형 가능한 메쉬로 모델링하고 물리 시뮬레이션을 사용하여 3D 객체에 투사함으로써 물리적 세계의 적대적 공격을 용이하게 하는 변형 가능한 패치 투사 기법이다. 종합적인 실험 결과들은 제안된 기법들이 현실적인 공격 시나리오에서 AI 모델의 적대적 강인성에 대한 더 신뢰할 수 있는 평가를 제공하는 것을 보여주었고 이들은 향후 더 안전하고 견고한 AI 시스템의 개발에 기여할 수 있을 것이다.