서지주요정보
Uncertainty calibration in deep learning = 딥러닝의 불확실성 보정에 관한 연구
서명 / 저자 Uncertainty calibration in deep learning = 딥러닝의 불확실성 보정에 관한 연구 / Jeffrey Ryan Willette.
발행사항 [대전 : 한국과학기술원, 2021].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8038038

소장위치/청구기호

학술문화관(문화관) 보존서고

MCS 21074

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

Neural networks have proven successful at learning from complex data distributions by acting as universal function approximators. However, they are often overconfident in their predictions, which leads to inaccurate and miscalibrated probabilistic predictions. The problem of overconfidence becomes especially apparent in cases where the test-time data distribution differs from that which was seen during training. We propose a solution to this problem by seeking out regions of feature space where the model is unjustifiably overconfident, and conditionally raising the entropy of those predictions towards that of the prior distribution of the labels. Our method results in a better calibrated network and is agnostic to the underlying model structure, so it can be applied to any neural network which produces a probability density as an output. We demonstrate the effectiveness of our method and validate its performance on both classification and regression problems, applying it to recent probabilistic neural network models.

인공 신경망은 포괄적인 함수 근사치로서 복잡한 데이터 분포를 효과적으로 배울수 있음이 밝혀졌다. 그러나 모델의 예측값은 너무 과신되어 있어서, 부정확하고 교정되지 않은 확률값을 갖게된다. 이러한 문제점은 테스트 데이터 분포가 학습데이터 분포와 다를 때 확연히 드러난다. 이러한 문제를 해결하기 위해 비정상적으로 모델이 예측값을 확신하고 있는 지역을 찾아내고, 엔트로피를 증가시켜 사전분포와 비슷해지도록 만드는 방법을 제안한다. 이 방법론은 네트워크의 예측값을 더 잘 보정시켜주며, 모델의 구조와는 상관없이 확률밀도를 출력값으로 내는 어떠한 인공 신경망에 적용할 수 있다. 최근에 제안된 확률론적 인공신경망에 이러한 방법론을 적용하여 분류와 회귀 문제에서 제안된 방법론의 우수성을 확인하였다.

서지기타정보

서지기타정보
청구기호 {MCS 21074
형태사항 iii, 21 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 위레트제프리
지도교수의 영문표기 : Sung Ju Hwang
지도교수의 한글표기 : 황성주
Including Appendix
학위논문 학위논문(석사) - 한국과학기술원 : 전산학부,
서지주기 References : p. 18-20
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서