Expression of emotion is an important factor which humans communicate with each other. The expression of emotion makes others understand and respond appropriately. Robots are made to serve humans and do their works. To make them serve us in the future, robots communicate with humans as humans do. Robots should be able to understand human's emotional states and exhibit appropriate behaviors accordingly.
Humans express their emotional reactions to external stimuli by gesture, voice and facial expression. In face-to-face communication between humans and robots, facial expressions are an essential factor to understand emotional states. Facial expression can show current emotional states without other expressive means, such as voice or gestures.
This thesis proposes a linear affect model that can represent the emotional states of robots. The facial robot can produce six different facial expressions, such as surprise, happiness, sadness, fear, disgust, and anger. Six Action Units (AUs) of a robot make a 6-dimensional expression space. Psychologists argue that human's emotions are combinations of three basic affects even though they do not agree on which affects make the three basis. Based on their argument, three emotions out of the six are chosen to make a 3-dimensional affect space. Then I propose a transition matrix which transfers emotions from the 3-dimensional affect space to the 6-dimensional expression space. By using this matrix, six expressions can be generated using the scales of only three emotional states. And this thesis proposes a method that can produce blends of facial using six facial expressions. Robot's blended facial expressions can be generated with divided expression space.
Finally, experiments were performed to show that the facial robot system can produce the six basic expressions and the blended expressions using the linear affect model. Robots can produce as many expressions as possible with this proposed method.
사람이 다른 사람과 의사 소통을 할 때 감정을 표현하고 이해하는 것은 다른 사람을 이해시키거나 다른 사람에게 적절히 반응할 수 있게 하는 중요한 요소가 된다. 로봇이 인간의 삶을 풍요롭게 도와주기 위해서는 로봇 역시 인간이 의사 소통하는 것과 같은 방식으로 인간과 의사 소통할 수 있어야 한다. 이를 위해 로봇은 인간의 감정 상태를 이해하고 적절한 반응을 할 수 있어야 한다. 인간은 외부 자극에 대해 자신의 감정을 몸짓, 목소리, 얼굴 표정 등 다양한 수단으로 표현한다. 인간과 로봇의 직면 통신 과정 중에서 얼굴 표정은 목소리나 몸짓과 같은 다른 감정 표현 수단 없이도 현재 감정 상태를 표현하고 이해할 수 있는 중요한 요소가 된다. 이 논문은 로봇의 감정 상태를 표현할 수 있는 선형 정서 모델은 제안하고자 한다. 로봇의 정서 공간은 3차원의 선형 공간으로 제안하고 정서 공간의 기저에 의해 감정이 형성됨을 가정한다. 얼굴 로봇은 놀람, 기쁨, 화남, 슬픔, 공포, 혐오의 6가지 다른 얼굴 표정을 구현할 수 있으며 로봇의 표정을 구성하는 6가지 움직임 요소는 로봇의 6차원 표정 공간을 형성하게 된다. 로봇의 3차원 정서 공간과 6차원의 표정 공간을 사상시키는 추이 행렬을 제안함으로써 3가지의 정서를 통해 로봇의 기본 6가지 얼굴 표정을 표현하고자 한다. 또한 6가지 얼굴 표정을 기반으로 하는 복합 표정을 구현함으로써 로봇의 얼굴 표정을 더욱 다양하게 한다. 로봇의 복합 표정을 잘 표현하기 위해 로봇의 표정 공간을 눈과 입에 대한 공간으로 분리하여 사용한다. 제안된 방법을 이용하면 6가지 얼굴 표정과 복합 표정뿐만 아니라 로봇의 다양한 얼굴 표정을 표현 가능하다.