서지주요정보
Pre-training a neural model to overcome data scarcity in relation extraction from text = 관계 추출에서의 데이터 부족 문제 완화를 위한 인공신경망 사전학습 방법론
서명 / 저자 Pre-training a neural model to overcome data scarcity in relation extraction from text = 관계 추출에서의 데이터 부족 문제 완화를 위한 인공신경망 사전학습 방법론 / Seokwoo Jung.
발행사항 [대전 : 한국과학기술원, 2018].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8032155

소장위치/청구기호

학술문화관(문화관) 보존서고

MCS 18032

휴대폰 전송

도서상태

이용가능

대출가능

반납예정일

리뷰정보

초록정보

Data scarcity is a major stumbling block in relation extraction. We propose an unsupervised pre-training method for extracting relational information from a huge amount of unlabeled data prior to supervised learning in the situation where hard to make golden labeled data. An objective function not requiring any labeled data is used during the pre-training phase, with an attempt to predict clue words crucial for inferring semantic relation types between two entities in a given sentence. The experimental result on public datasets shows that our approach is effective in a data-scarce setting.

관계 추출에서는 모델 학습을 위한 데이터의 부족은 큰 문제이다. 우리는 적은 데이터를 이용한 지도 학습에 앞서, 제안하는 비지도 학습을 이용함으로써 엄청난 양의 원시 텍스트 데이터로부터 관계 정보를 추출하여 활용하였다. 이러한 비지도 학습을 위해 우리는 관계를 분류하는 대신 문장의 관계 정보가 담긴 핵심 단어를 예측하는 다른 목적 함수를 제안하였다. 여러 공개 데이터셋에서의 평가 결과에서 제안하는 방법론이 데이터가 부족한 상황에서의 관계 추출 성능을 높이는 것으로 드러났다.

서지기타정보

서지기타정보
청구기호 {MCS 18032
형태사항 iii, 28 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 정석우
지도교수의 영문표기 : Sung-Hyon Myaeng
지도교수의 한글표기 : 맹성현
학위논문 학위논문(석사) - 한국과학기술원 : 전산학부,
서지주기 References : p. 23-26
QR CODE qr code