서지주요정보
Improving multi-modal emotion recognition with counterpart data in dyadic conversations = 대화 과정에서 상대방 데이터를 활용한 멀티모달 감정 인식 개선
서명 / 저자 Improving multi-modal emotion recognition with counterpart data in dyadic conversations = 대화 과정에서 상대방 데이터를 활용한 멀티모달 감정 인식 개선 / Yongshin Kim.
발행사항 [대전 : 한국과학기술원, 2022].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8039934

소장위치/청구기호

학술문화관(도서관)2층 학위논문

MKSE 22009

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

Today, as we live in numerous interactions, many studies have tried to predict human emotions. Since our daily life consists of countless interactions, it is better to predict human emotions between interactions. However, most studies have focused only on the speaker's data, not the counterpart's data, to predict the speaker's emotions because datasets which labeled human emotions in the naturalistic conversation are rare. In this study, we propose a method for predicting the emotions of the speaker in the naturalistic conversation using a speaker encoder and counterpart encoder composed of CNN-LSTM deep learning networks. We used emotion-related data called K-EmoCon collected during the debate process to empirically evaluate our model. The results showed that the counterpart's speech and the physiological signals had a positive impact on predicting the speaker's emotions. Through this paper, we hope to be helpful in the study of predicting emotions in naturalistic conversation.

자연스러운 감정 인식 기술은 다양한 활용처가 있지만 많은 이전 연구들은 인간의 감정을 사람 간 상호작용 속에서 분석하지 않았다. 그 이유는, 대부분의 감정 관련 데이터셋은 대화 과정 속에서 수집되지 않았기 때문이다. 즉, 이전 연구는 인간의 감정을 예측하기 위해 상대방의 데이터가 아닌 화자의 데이터만 사용했다. 본 연구는 멀티모달 센서 데이터(음성 및 생체신호)를 활용하여 감정 상태를 자동 분류하는 CNN-LSTM 딥러닝 네트워크를 소개한다. 특히, 자연스러운 대화 상황을 가정한 환경에서 연속적인 감정을 수집한 K-EmoCon 데이터셋을 활용해 쌍방 대화에서 대화 파트너의 데이터를 활용하여 화자의 감정 분류의 정확도를 높일 수 있는 모델을 제시한다. 실험 결과 대화 상대방의 음성 및 생체신호가 발화자의 감정 예측 성능에 긍정적인 영향을 미친 것으로 나타났다. 이 논문을 통해 우리는 자연스러운 대화 과정에서 발화자 뿐만 아니라 상대방의 특성 또한 고려해야 된다는 것을 주장한다.

서지기타정보

서지기타정보
청구기호 {MKSE 22009
형태사항 iii, 27 p. : 삽도 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 김용신
지도교수의 영문표기 : Uichin Lee
지도교수의 한글표기 : 이의진
Including appendix
학위논문 학위논문(석사) - 한국과학기술원 : 지식서비스공학대학원,
서지주기 References : p. 23-27
주제 Emotion recognition
Affective computing
Naturalistic conversation
Interpersonal features
Deep neural networks
Multimodal
감정인식
감성컴퓨팅
일상대화
딥러닝
멀티모달
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서