In this paper, we point out the problem that differential privacy image data generation models learn the biases of real data, so that biases are inherited or amplified in synthetic data. To address this problem, we propose FP-WGAN, the first image generation framework that achieves both fairness and privacy. The framework is based on sampling-based fairness training technique which does not require any information on bias factors, combined with state-of-the-art privacy data generation models in a way that reduces the impact privacy and fairness can have on each other. In our experiment, FP-WGAN not only improves the diversity and quality of minor group images but also improves fairness in other machine learning tasks using generated images.
본 논문에서는 차등 프라이버시 이미지 데이터 생성 모델이 실제 데이터의 편향을 학습하여 합성 데이터에 편향이 상속되거나 심화되는 문제를 지적한다. 이를 해결하기 위해, 최초로 개인정보 보호와 공정성을 동시에 만족하는 이미지 생성 프레임워크 FP-WGAN을 제안한다. 이 프레임워크는 편향 요인에 대한 정보가 없어도 데이터 생성 모델의 공정한 학습을 유도하는 샘플링 기반의 공정성 훈련 기법을 기반으로 하며, 프라이버시와 공정성이 서로에게 미칠 수 있는 영향을 줄이는 방향으로 최신의 프라이버시 데이터 생성모델과 결합된 형태를 가진다. 본 논문에서는 FP-WGAN이 비주류 그룹 이미지의 다양성과 품질을 높일 뿐만 아니라, 생성된 이미지를 활용한 다른 머신 러닝 작업에서도 그룹에 대한 공정성을 발전시는 것을 실험적으로 확인한다.