As artificial intelligence (AI) has an increasing societal impact in our world, developing fair AI becomes important to avoid adapting or even amplifying social biases and discrimination. Although many techniques for training fair models have been proposed, most of them face significant limitations that make it challenging to apply them in practice. To address these challenges, this thesis provides fundamental solutions for 1) lowering the technical barriers of fair AI development and 2) achieving high fairness even when the training and test data contain errors or change over time, and thus lays the foundation for practical and trustworthy AI. Furthermore, we aim to extend our techniques to mitigate ethical concerns associated with foundation models, which are recently being used in many applications at an explosive pace, and suggest new opportunities for making foundational models fair and safe to use.
최근 인공지능의 사회적인 영향력이 점차 증가하며, 사회의 편향을 답습하거나 증폭하지 않는 공정한 인공지능의 중요성이 더욱 부각되고 있다. 이에 따라 모델 공정성 관련 연구가 폭발적으로 제안되고 있지만, 이를 실제 시스템에 적용하기 어렵게 만드는 여러 한계가 남아있다. 이러한 한계점들을 해결하기 위해, 본 연구에서는 공정한 인공지능 개발의 기술적 장벽을 완화하고, 학습 데이터 혹은 테스트 데이터에 오류가 포함되거나 변형되었을 때에도 높은 공정성을 달성가능하도록 하는 기초 연구를 진행하여, 보다 실제적인 적용이 가능한 신뢰할 수 있는 인공지능의 기반을 마련하고자 한다. 최종적으로, 본 연구에서 제시하는 다양한 기저 기술을 더욱 확장하여, 최근 많은 어플리케이션에서 폭발적으로 활용되고 있는 파운데이션 모델의 여러 윤리적인 문제를 완화하고 이를 더욱 공정하고 견고하게 활용할 수 있는 새로운 가능성을 제시하고자 한다.