In this study, we first address the robustness of the deep learning approach for real-world problems, especially classification problems. We suggest the utilization method of robust representations for various settings. In detail, we first propose robust representation learning in a contaminated data setting for a one-class classification problem. Second, we propose the utilization of representation for the detection of adversarial attackers in a distributed system. Lastly, we demonstrate the application of robust representations for three real-world problems: detecting offensive language use in chatbots where the users try to corrupt the inputs to deceive the system, detecting the contaxtomy in news headlines, and detecting highlight moments in the live-streaming system, where the users use emotes. The proposed methods showed performance gains for each scenario where robustness is required.
이 연구에서는 먼저 실제 문제, 특히 분류 문제에 대한 딥러닝 접근 방식의 강건성을 다룬다. 다양한 설정에 대한 강건한 표현의 활용 방법을 제안한다. 구체적으로, 먼저 단일 클래스 분류 문제에 대해 오염된 데이터 설 정에서 강건한 표현 학습을 제안한다. 둘째, 분산 시스템에서 적대적인 공격자를 탐지하기 위해 표현의 활용을 제안한다. 마지막으로, 세 가지 실제 문제에 대한 강건한 표현의 적용을 제시한다. 사용자가 시스템을 속이기 위해 입력을 조작하는 챗봇 사용 상황에서 공격적인 언어 사용을 감지하고, 뉴스 헤드라인에서 맥락을 무시한 인용을 감지하고, 사용자가 이모트를 활용하는 라이브 스트리밍 상황에서 하이라이트 순간을 감지하는 방법을 제안한다. 제안된 방법은 강건성이 요구되는 각 시나리오에서 성능 향상을 보인다.