The recent growth of the use of machine learning in decision making has resulted in attention being paid to the problem of opacity. This thesis analyses the epistemic and ethical implications of the opacity of machine learning through a case study of the use of offender risk assessment tool in judicial decision making. Machine learning, due to a trade-off between explanatory power and predictive accuracy, produces an epistemic paradox where the improvement of knowledge necessitates restriction on knowledge. Epistemic opacity arises through such epistemic paradox, and epistemic opacity further involves ethical opacity, namely the impossibility of verifying ethical values incorporated in the construction of machine learning models. This thesis argues that epistemic opacity, ethical opacity, external opacity, and internal opacity are intertwined in machine learning. Furthermore, this thesis suggests that an understanding of different kinds of opacities can contribute to resolving ethical and social problems that characterize the opacity of machine learning.
최근 의사결정에 기계학습을 이용하는 사례가 증가함에 따라 기계학습의 불투명함에 관한 문제가 대두되고 있다. 본 논문은 법정의사결정에서의 범죄자위험평가도구 사용 사례를 바탕으로 기계학습의 불투명함의 인식론적 및 윤리적 함의를 분석한다. 설명력을 희생하여 예측력을 향상하는 기계학습은 지식의 개선을 위해 지식을 제한하는 인식의 역설을 특징으로 한다. 인식의 역설은 인식적 불투명함을 유발하며, 인식적 불투명함은 기계학습 모델 형성 과정에 개입하는 윤리적 가치의 검증 불가능함을 뜻하는 윤리적 불투명함을 동반한다. 본 논문은 기계학습에 인식적 불투명함과 윤리적 불투명함, 외재적 불투명함과 내재적 불투명함이 뒤얽혀 있음을 주장한다. 나아가, 본 논문은 다양한 종류의 불투명함에 대한 이해가 기계학습의 불투명함으로 인한 윤리적 및 사회적 문제 해결에 기여할 수 있음을 시사한다.