Implicit Neural Representation (INR) is an efficient way to represent data as a continuous function, using multi-layer perceptrons (MLPs), unlike array-based representations. It can compress data efficiently and produce outstanding performance in various deep learning downstream tasks, including video synthesis. Despite various research efforts in this area, to the best of our knowledge, no attempts have been made so far to debias the INR. Unfortunately, as INR is a learning-based approach, it is susceptible to dataset bias. In this paper, we propose INR-Contrastive (INRCon) loss and INR-augmentation (INRAug) that can be directly applied to the weight space and perform debiasing. INRCon loss is effective in detecting bias without any bias supervision by utilizing the INR parameters as inputs of contrastive learning. INRAug consists of two augmentation methods. INRMix mixes two INRs without loss of information by concatenating the parameters, and permutation augments INRs of the same image by rearranging the weights. The novelty of INRAug comes from manipulating the parameters, which are its weight and bias. INRCon loss and INRAug show noticeable improvement in debiasing, and the debiased dataset results significant improvement on performance of bias-conflicting data under all conditions.
암시적 신경 표현은 배열 기반 표현과 달리 다층 퍼센트론을 이용하여 데이터를 연속적인 함수로 표현하는 효율적인 방법입니다. 이를 통해 데이터를 압축할 수 있어서 비디오 합성을 비롯한 다양한 딥러닝 모델의 성능을 높이는 데 이용되고 있습니다. 이 분야에 대한 다양한 연구 노력이 있음에도 불구하고, 저희가 아는 한 지금까지 암시적 신경 표현 데이터 세트의 편향을 제거하려는 시도는 없었습니다. 암시적 신경 표현은 학습 기반 방식이므로, 데이터 세트 내의 편향에 취약합니다. 따라서 본 논문에서는 가중치 공간에 직접 적용해 탈편향을 할 수 있는 손실 함수 (INRCon loss)와 증대 방법 (INRAug)을 제안하여 암시적 신경 표현 데이터 세트 내의 편향을 제거했습니다. INRCon loss는 암시적 신경 표현의 매개변수를 입력으로 받는 대조 학습의 손실 함수를 새롭게 제안한 것으로, 편향 레이블 없이 가중치 공간에서 편향을 감지하는데 효과적이도록 고안한 것입니다. INRAug는 두 가지 증대 방법으로 구성되는데, INRMix는 정보 손실 없이 두 INR의 매개변수를 연결해서 데이터를 섞는 방법이고, 순열 방법은 가중치를 재정렬하여 동일한 이미지의 암시적 신경 표현을 만듭니다. INRAug의 참신함은 가중치와 바이어스인 매개변수를 직접 조작하는 데 있습니다. 실험을 통해 INRCon loss와 INRAug가 편향성을 효과적이고 안정적으로 제거하는 것을 확인했고, 편향 제거된 데이터 세트는 다양한 환경 설정에서 암시적 신경 표현을 입력으로 받는 모델의 일반화 능력을 크게 향상시켜 주었습니다.