서지주요정보
Learning debiased representation via disentangled feature augmentation = 분리된 특징 증강을 통한 데이터 편향 완화
서명 / 저자 Learning debiased representation via disentangled feature augmentation = 분리된 특징 증강을 통한 데이터 편향 완화 / Jungsoo Lee.
발행사항 [대전 : 한국과학기술원, 2022].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8039063

소장위치/청구기호

학술문화관(도서관)2층 학위논문

MAI 22014

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

Image classification models tend to make decisions based on peripheral attributes of data items that have strong correlation with a target variable (i.e.,dataset bias). Thesebiasedmodels suffer from the poor generalization capability when evaluated on unbiased datasets. Existing approaches for debiasing often identify and emphasize those samples with no such correlation (i.e.,bias-conflicting) without defining the bias type in advance. However, such bias-conflicting samples are significantly scarce in biased datasets, limiting the debiasing capability of these approaches. This thesis first presents an empirical analysis revealing that training with “diverse” bias-conflicting samples beyond a given training set is crucial for debiasing as well as the generalization capability. Based on this observation, we propose a novel feature-level data augmentation technique in order to synthesize diverse bias-conflicting samples. To this end, our method learns the disentangled representation of (1) the intrinsic attributes(i.e., those inherently defining a certain class) and (2)bias attributes(i.e., peripheral attributes causing the bias), from a large number of bias-aligned samples, the bias attributes of which have strong correlation with the target variable. Using the disentangled representation, we synthesize bias-conflicting samples that contain the diverse intrinsic attributes of bias-aligned samples by swapping their latent features. By utilizing these diversified bias-conflicting features during the training, our approach achieves superior classification accuracy and debiasing results against the existing baselines on synthetic and real-world datasets.

이미지 분류 모델들은 특정 클래스와 강한 상관관계가 있는 데이터의 주변 속성 (즉, 데이터 편향)을 기반으로 의사 결정을 내리는 경향이 있다. 이러한 편향된 모델은 편향되지 않은 데이터 셋에서 평가할 때 일반화 능력이 떨어진다. 편향을 제거하기 위한 기존 접근방식은 편향 유형을 사전에 정의하지 않고 그러한 상관관계(즉, bias-conflicting)가 없는 표본을 식별하고 강조하는 경우가 많다. 그러나 이러한 bias-conflicting 샘플은 편향된 데이터 집합에서 상당히 드물기 때문에 이러한 접근 방식은 디바이어싱 기능이 제한된다. 이 논문은 먼저 주어진 훈련 셋을 넘어 "다양한" bias-conflicting 샘플을 사용하는 것이 디비어싱에 중요하다는 것을 보여주는 경험적 분석을 제시한다. 이러한 관찰을 바탕으로 다양한 bias-conflicting 샘플을 합성하기 위해 새로운 데이터 증강 기법을 제안한다. 이를 위해, 우리는 많은 수의 bias-aligned 샘플로부터 (1) 내재 속성(즉, 특정 클래스를 본질적으로 정의하는 속성)과 (2) 편향 속성(즉, 편견을 유발하는 주변 속성)의 얽힌 특징을 분리한다. 분리된 특징들을 사용하여, 우리는 bias-aligned 샘플의 잠재적 특징을 교환하여 다양한 내재 속성을 포함하는 bias-conflicting 샘플을 합성한다. 훈련 중에 이러한 다양한 bias-conflicting 기능을 활용한 우리의 접근 방식은 기존의 접근 방식들보다 우월한 성능을 보여준다.

서지기타정보

서지기타정보
청구기호 {MAI 22014
형태사항 iii, 19 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 이정수
지도교수의 영문표기 : Jaegul Choo
지도교수의 한글표기 : 주재걸
학위논문 학위논문(석사) - 한국과학기술원 : 김재철AI대학원,
서지주기 References : p. 15-17
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서