In the near future, we consider robots being widely used as personal robots. We expect that a humanoid robot has the ability to express emotions and to communicate with human in a human-like manner. So robots should be able to understand human’s emotional states and exhibit appropriate behaviors accordingly. Spoken words only account for 7\% of what a listener comprehends in Human-Human Interaction; the remaining 93\% consist of the speaker’s nonverbal communicative behavior. Bodily movements provide information of the quantity (or the intensity) of emotion. Therefore, a gesture is one of the most important expressional means with a face together.
Latest personal robots can interact with human using multi-modality such as facial expression, gesture expression (including posture, movement), LED (including color, frequency), sound, sensors and so on. The objective of multi-modality is to understand or express the intention or the mood and is for better communication through rich interaction. However, a posture expression needs a position and an orientation only and in facial or gesture expressions, movements are involved. Verbal, vocal, musical, color expressions need time information. Because synchronization between multi-modal methods is a key problem, emotion expression needs a systematic or transformable approach.
On the other hand, at low intensity of surprise the face could be expressed but the gesture could not be expressed because a gesture is not linear. It is need to decide the emotional boundaries for effective robot behavior generation and synchronization with another expressible method. Previous researches have been progressed about emotional boundaries. However almost the bases for the size or the shape of boundaries are insufficient, studies are experimented about boundaries in HHI or only considered transitions from neutral emotion to basic emotions in HCI (Human-Computer Interaction). And it is hard to synchronize with facial expression because behavior model separated from facial expression model and express gesture at the change between emotions.
If it is so, how can we define emotional boundaries including neutral? And how can gestures be displayed according to its emotion? Finally how can decide gesture velocities according to the dynamic equation?
The third part of this thesis proposed 7 boundaries of each emotion in a linear dynamic affect-expression space. It is proposed that the radiuses of boundaries should be derived from minimum norms of 80\% recognition. Basic 7 emotions including neutral have each boundary with different size and shape. Gestures velocities are accepted by damping ratio values of 3 bases in affect space for synchronize with face velocity. The behavior is executed when the emotion object joins the boundary of specific emotion and goes to neutral point when it comes out the boundary.
Moreover, the gesture expression system is developed that can express emotions of robots and designed a robot arm with 6 degrees-of-freedom. A digital control board using an AT90CAN128 and a RS-485 also is developed. The board can communicate other CAN controller and RS-485 motors. Finally, experiments were performed to show that the gesture expression system can produce the 7 basic expressions including neutral using the boundaries in a linear dynamic affect-expression space. Robots can produce gestures from proposed method and synchronize with other multi-modality.
가까운 미래에는 개인 로봇이 대중화 될 것이다. 휴머노이드 로봇은 점점 사람과 비슷한 행동을 하게 되고, 감정을 표현하며, 사람과 의사소통이 가능해질 것이다. 따라서 로봇이 사람의 감정 상태를 이해하거나 적절하게 자신의 행동을 표현하는 기능은 중요해 질 것이다. 메러비안에 따르면, 사람과 사람간의 교류에서 언어는 메세지의 7\%만을 차지할 뿐이고, 나머지 93\%가 행동 표현에 있다고 한다. 또한 바디 랭귀지는 감정의 양이나 세기를 표현하는데 정보를 제공하기도 한다. 그러므로 제스처는 얼굴과 함께 중요한 표현 수단 중의 하나임에 틀림없다.
최근의 로봇들은 얼굴 표정이나 제스처, LED, 소리, 센서 등의 복합적 방법을 이용하여 사람과 교류하고 있다. 복합적 방법의 목적은 사람의 감정을 좀 더 쉽게 이해하거나 표현하여, 좀 더 풍부한 감정 교류를 함에 있다. 하지만 포즈는 위치와 방위에 대한 정보가 필요하고, 얼굴이나 제스처는 속도에 대한 정보가 필요하며, 말이나 색 등은 시간에 대한 정보가 필요하기 때문에 하나의 모델로 통합하거나 동기화 시키기 어려운 문제가 있다. 따라서 복합적 방법에 대한 동기화를 시스템적 접근을 통해 풀어야 한다.
한편 작은 세기의 놀란 감정에서, 얼굴 표정은 쉽게 표현이 가능하지만 제스처는 표현이 힘든 문제가 있다. 따라서 감정의 경계를 이용한다면, 비선형적 특성을 가진 다른 표현 방법과도 쉽게 동기화를 할 수 있다. 기존의 감정 경계는 같은 형태와 크기를 가지거나, HHI 분야에 국한되어 연구되어 왔다. 또한 감정간의 변화에 대한 일반적인 경계가 아직은 없는 실정이었다.
그렇다면 우리는 어떻게 감정의 경계를 정의할 것이며, 제스처를 표현할 것인가를 고려해야 한다. 또한 얼굴 표정의 속도와 제스처의 속도를 어떻게 맞추어가야할지에 대해서도 생각해야 한다. 본 논문에서는 중립을 포함한 7개의 감정을 선형의 정서-표정 공간에서 경계를 제안한다. 80\%의 인식률을 가지는 최소값의 유클리디안 놈을 이용하여 경계의 반지름을 찾고, 각각 다른 크기의 경계를 추출한다. 제스처의 속도는 정서 공간을 이루는 3축의 기저 특성에서 감쇠 비를 사용한다면, 얼굴 표정과 속도를 맞출 수 있다.
더불어 로봇의 감정을 표현하기 위해서, 6자유도의 로봇 팔을 이용한 제스처 표현 시스템을 제안한다. AT90CAN128과 RS-485프로토콜을 이용하여 제어기를 설계한다. 이 제어기는 CAN 프로토콜을 통해서 다른 제어기와 통신할 수 있고 RS-485를 통해서 모터의 속도와 위치를 제어할 수 있다. 마지막으로 선형의 정서-표정 공간 내 감정의 경계를 사용하여 얼굴과 함께 제스처를 동기화하는 실험을 제시한다. 로봇은 제안한 방법을 통하여 제스처를 표현할 수 있고, 다른 복합적 방법과 동기화가 가능하다.