서지주요정보
Augmented language models to solve NLP tasks effectively and reliably = 자연어처리 문제를 효과적이고 안정적으로 해결하기 위한 증강 언어 모델
서명 / 저자 Augmented language models to solve NLP tasks effectively and reliably = 자연어처리 문제를 효과적이고 안정적으로 해결하기 위한 증강 언어 모델 / Jaehyung Kim.
발행사항 [대전 : 한국과학기술원, 2024].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8042620

소장위치/청구기호

학술문화관(도서관)2층 학위논문

DEE 24008

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

The advance of language models (LMs) significantly boosts state-of-the-art performances in various natural language processing (NLP) tasks, but the number of given labeled datasets for each downstream task is still critical for the performance and stability of fine-tuned LMs. While the recent development of large LMs (LLMs) has mitigated this limitation, LLMs still have their own limitations such as non-factual but seemingly plausible generation or difficulty in integrating up-to-date knowledge. Augmentation, which is artificially expanding or modifying the data to improve the model's robustness and generalization, is known to be effective in exploiting the given data, and this framework of augmentation has been demonstrated to be effective in improving LMs at various levels during the prediction. In this dissertation, we propose new ways to augment LMs to improve their efficiency and reliability in solving target tasks. Specifically, we investigate three different frameworks for augmenting LMs: augmenting (1) input texts, (2) their annotations (i.e., labels), and (3) the rationale for the prediction. Through extensive experiments with the recent state-of-the-art LMs, we demonstrate that the proposed methods of augmenting LMs at various levels significantly improve the accuracy and reliability of LMs' prediction.

언어 모델의 발전으로 다양한 자연어 처리 작업에서 최첨단 성능이 크게 향상되었지만, 각 다운스트림 작업에 대해 주어진 레이블이 지정된 데이터 세트의 수는 여전히 미세 조정된 언어 모델의 성능과 안정성에 매우 중요합니다. 최근 대규모 언어모델의 개발로 이러한 한계가 완화되기는 했지만, 사실과 다르지만 그럴듯하게 생성되거나 최신 지식을 통합하기 어렵다는 등의 한계는 여전히 존재합니다. 모델의 견고성과 일반화를 향상시키기 위해 데이터를 인위적으로 확장하거나 수정하는 증강은 주어진 데이터를 활용하는 데 효과적인 것으로 알려져 있으며, 이러한 증강 프레임워크는 예측 과정에서 다양한 수준에서 언어 모델을 개선하는 데 효과적인 것으로 입증되었습니다. 본 논문에서는 언어 모델을 증강하여 목표 과제를 해결할 때 효율성과 신뢰성을 향상시킬 수 있는 새로운 방법을 제안합니다. 구체적으로, (1) 입력 텍스트, (2) 주석(예: 레이블), (3) 예측의 근거를 보강하는 세 가지 프레임워크에 대해 살펴봅니다. 최신 언어 모델을 사용한 광범위한 실험을 통해, 다양한 수준에서 언어 모델을 증강하는 제안된 방법이 언어 모델의 예측 정확도와 신뢰도를 크게 향상시킨다는 것을 입증했습니다.

서지기타정보

서지기타정보
청구기호 {DEE 24008
형태사항 viii, 83 p. : 삽도 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 김재형
지도교수의 영문표기 : Jinwoo Shin
지도교수의 한글표기 : 신진우
Including appendix
학위논문 학위논문(박사) - 한국과학기술원 : 전기및전자공학부,
서지주기 References : p. 70-81
주제 Machine learning
Deep learning
Natural language processing
Language model
Data augmentation
기계 학습
딥러닝
자연어처리
언어 모델
데이터 증강
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서