서지주요정보
(A) fair augmentation method study via contrastive learning on implicit neural representations = 암시적 신경 표현에서의 대조 학습을 통한 공정한 증대 방법 연구
서명 / 저자 (A) fair augmentation method study via contrastive learning on implicit neural representations = 암시적 신경 표현에서의 대조 학습을 통한 공정한 증대 방법 연구 / Sojeong Song.
발행사항 [대전 : 한국과학기술원, 2023].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8040765

소장위치/청구기호

학술문화관(도서관)2층 학위논문

MEE 23058

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

Implicit Neural Representation (INR) is an efficient way to represent data as a continuous function, using multi-layer perceptrons (MLPs), unlike array-based representations. It can compress data efficiently and produce outstanding performance in various deep learning downstream tasks, including video synthesis. Despite various research efforts in this area, to the best of our knowledge, no attempts have been made so far to debias the INR. Unfortunately, as INR is a learning-based approach, it is susceptible to dataset bias. In this paper, we propose INR-Contrastive (INRCon) loss and INR-augmentation (INRAug) that can be directly applied to the weight space and perform debiasing. INRCon loss is effective in detecting bias without any bias supervision by utilizing the INR parameters as inputs of contrastive learning. INRAug consists of two augmentation methods. INRMix mixes two INRs without loss of information by concatenating the parameters, and permutation augments INRs of the same image by rearranging the weights. The novelty of INRAug comes from manipulating the parameters, which are its weight and bias. INRCon loss and INRAug show noticeable improvement in debiasing, and the debiased dataset results significant improvement on performance of bias-conflicting data under all conditions.

암시적 신경 표현은 배열 기반 표현과 달리 다층 퍼센트론을 이용하여 데이터를 연속적인 함수로 표현하는 효율적인 방법입니다. 이를 통해 데이터를 압축할 수 있어서 비디오 합성을 비롯한 다양한 딥러닝 모델의 성능을 높이는 데 이용되고 있습니다. 이 분야에 대한 다양한 연구 노력이 있음에도 불구하고, 저희가 아는 한 지금까지 암시적 신경 표현 데이터 세트의 편향을 제거하려는 시도는 없었습니다. 암시적 신경 표현은 학습 기반 방식이므로, 데이터 세트 내의 편향에 취약합니다. 따라서 본 논문에서는 가중치 공간에 직접 적용해 탈편향을 할 수 있는 손실 함수 (INRCon loss)와 증대 방법 (INRAug)을 제안하여 암시적 신경 표현 데이터 세트 내의 편향을 제거했습니다. INRCon loss는 암시적 신경 표현의 매개변수를 입력으로 받는 대조 학습의 손실 함수를 새롭게 제안한 것으로, 편향 레이블 없이 가중치 공간에서 편향을 감지하는데 효과적이도록 고안한 것입니다. INRAug는 두 가지 증대 방법으로 구성되는데, INRMix는 정보 손실 없이 두 INR의 매개변수를 연결해서 데이터를 섞는 방법이고, 순열 방법은 가중치를 재정렬하여 동일한 이미지의 암시적 신경 표현을 만듭니다. INRAug의 참신함은 가중치와 바이어스인 매개변수를 직접 조작하는 데 있습니다. 실험을 통해 INRCon loss와 INRAug가 편향성을 효과적이고 안정적으로 제거하는 것을 확인했고, 편향 제거된 데이터 세트는 다양한 환경 설정에서 암시적 신경 표현을 입력으로 받는 모델의 일반화 능력을 크게 향상시켜 주었습니다.

서지기타정보

서지기타정보
청구기호 {MEE 23058
형태사항 iii, 25 p. : 삽도 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 송소정
지도교수의 영문표기 : Junmo Kim
지도교수의 한글표기 : 김준모
공동지도교수의 영문표기 : Changdong Yoo
공동지도교수의 한글표기 : 유창동
학위논문 학위논문(석사) - 한국과학기술원 : 전기및전자공학부,
서지주기 References : p. 21-24
주제 Implicit neural representation
Debias
Dataset bias
Contrastive learning
Data augmentation
암시적 신경 표현
탈편향
데이터 세트 편향
대조 학습
데이터 증대
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서