A robot's face is its symbolic feature and its facial expressions are the best method for interacting with people with emotional information. Moreover, a robot's facial expressions play an important role in human-robot emotional interactions. Just as we identify a person through his or her face, we should be able to distinguish a robot through its face. Furthermore, the techniques which enable robots' faces to express emotions will become a crucial factor in robot development and embodiment in the future. People expect to see a humanoid or android expressing its internal or emotional state in similar ways to humans. Humans can immediately recognize the internal state of robots with facial expressions. Humanlike facial expressions should be used for robots to effectively display easily recognizable emotional interaction. Therefore, the development of human-friendly robot systems that enable robots to show their emotions to people is necessary.
Numerous and various robot heads and faces have been made thus far, and different facial forms require different ways to embody the expressions of each one of them. There is no general rule for creating this process, and there has been an insufficient amount of objective resources in the quest to determine where and how many control points of the robot face should be placed. Although various methods exist that enable the embodiment of robot expressions, most robots are unable to express continuous and natural changes of facial expressions efficiently and can only show predefined and limited emotions. In order to develop human-friendly robot systems that enable robots to show their emotions effectively, it should be considered how to design facial robots to be friendly to human and how to effectively control the expressional components.
This dissertation organizes a general rule and procedure for the design and realization of expressions when some mascot-type facial robots are developed. A mascot-type facial robot is developed to enable friendly human feelings. The number and type of control points of the developed facial robot for six basic expressions or emotions are determined through surveys. A linear affect-expression space model is provided to effectively realize continuous and various expressions. The number and meaning of orthogonal bases in the affect space is determined according to the basic expressions of the robot, and the results are differently determined depending on the shapes and control points of robot faces. In addition, a new dynamics model of emotion is suggested based on the proposed linear affect space, and this model presents dynamic emotional expressions and a sharable affect space independent of recognition algorithm or theories.
The proposed process of designing and determining control points of a facial robot can be directly applicable to the development of other mascot-type facial robots. The proposed affect-expression space model makes it possible to create various and continuous expressions by merely using small number of parameters or affective bases. The effects of the proposed methods are shown through experiments using a simulator and an actual robot system in this dissertation.
로봇의 얼굴은 그 로봇을 나타내는 상징적인 특징이며, 로봇의 얼굴 표정은 사람과 감정적 교감에 있어 중요한 역할을 수행한다. 우리가 사람들을 얼굴을 통해 쉽게 구분하는 것과 같이, 로봇 역시 얼굴을 기준으로 구분될 수 있다. 그리고 로봇이 자신의 감정 상태를 얼굴을 통해 표현하는 것은 미래의 로봇 구현 과정에서 중요한 요소 기술이 될 것이다. 사람들은 휴머노이드(humanoid)나 안드로이드(android) 등과 같은 로봇들이 그들의 감정 상태 혹은 내부 상태를 사람과 유사한 방식으로 표현할 것을 현재에도 기대하고 있다. 사람들은 로봇의 표정을 통해 로봇의 내부 상태를 별도의 훈련 없이도 직관적으로 쉽게 이해할 수 있기 때문이다. 그러므로 로봇의 감정 상태를 얼굴로 나타낼 수 있는 친근한 형태의 로봇 시스템 개발이 필요하다.
지금까지 다양한 형태의 로봇 머리나 얼굴이 개발되어 왔고, 각각의 로봇 얼굴이 다르듯 표정 구현 방식 또한 서로 달랐다. 얼굴 표정 구현에 있어서는 아직 일반화된 규칙이나 방식이 없었고, 로봇 얼굴의 어떤 표정 요소를 어디에 그리고 얼마나 배치해야하는지에 대한 객관적인 자료도 기존 연구에서는 제시하지 못했다. 지금까지 로봇 표정 구현을 위해 다양한 방법이 시도되었으나, 대부분의 로봇은 연속적이며 자연스런 표정 변화를 효과적으로 보여주지 못하고, 미리 정해진 몇 개의 표정만을 단순히 나타내고 있다. 감정 상태를 효과적으로 나타낼 수 있는 인간 친화적인 로봇을 개발하기 위해서, 인간 친화적인 로봇 얼굴을 어떻게 설계할 것인지와 표정 요소를 어떻게 효과적으로 제어할 것인지가 고려되어야 한다.
본 논문은 마스코트(mascot) 형태의 얼굴 로봇을 설계하고 개발할 때 고려해야할 일반화된 규칙과 과정을 정리한다. 그리고 사람에게 친근한 마스코트형 얼굴 로봇을 실제로 개발한다. 개발된 로봇의 얼굴에서 여섯가지 기본 표정을 표현하기 위해 필요한 제어점의 수와 종류가 설문조사를 통해 결정된다. 연속적이고 다양한 표정을 효과적으로 구현하기 위해 선형의 정서-표정 공간 모델이 제안된다. 정서 공간의 직교 기저들의 수와 의미는 로봇의 기본 표정 정보에 의해 결정되며, 그 결과는 로봇 얼굴의 형태와 제어점에 따라 서로 다르게 결정된다. 또한 제안된 선형 정서 공간을 바탕으로 감정의 동적 모델이 새롭게 제안되고, 이 모델은 동적인 감정 표현을 가능하게 하고, 정서 공간이 특정 인지 이론에 종속되지 않게 한다.
얼굴 로봇의 제어점을 설계하고 결정하는 제안된 과정은 다른 형태의 마스코트형 얼굴 로봇 개발 과정에 그대로 적용될 수 있다. 제안된 정서-표정 공간 모델은 적은 수의 변수 혹은 정서 기저를 사용하면서 다양하고 연속적인 표정 구현을 가능하게 한다. 제안된 방법들의 효과는 본 논문에서 시뮬레이터나 실제 로봇 시스템을 이용한 실험을 통해 보여진다.