Generating a motion for a humanoid robot is very cumbersome task for robot programmers who use machine level program codes to develop new behaviors of the humanoid robot. An intuitive and easy method of generating motions for humanoid robots is needed.
In this study, a method to generate motions of humanoid robots based on the user demonstration is proposed. A wearable interface is designed and a prototype of the wearable interface is implemented to capture the user’s demonstration. Kinematic analysises are applied to translate the human motion for humanoid robots. A curve simplification algorithm was applied to create an editable motion from the original motion, and GART clustering algorithm was used for grouping the similar motion frames for motion editing. Two kinds of motion generation method was proposed; motion hierarchy based generation and stochastic motion model based generation. A scenario for a task of a humanoid robot could be generated from the motion hierarchy and the generated motions variated with two transformation methods. A long motion with the repetitive patterns could be generated based on the transitions between the keyframe clusters of the stochastic motion model, and the generated motion was variated with the stochastic keyframe creation based on the Gaussian distribution of the keyframe cluster. The generated motions are validated by testing to the physical humanoid robot platforms.
This work provides a tool to generate motions of humanoid robots from the user demonstration for the people who do not know anything about the robot programming. By using the two different motion models proposed in this work, the reusability of the learned motion can be growing. As the result, the robot content creating process could become simpler, so anyone can create the new contents for humanoid robots. The expansion of the robot market and the employment of humanoid robots for providing services in daily lives are expected by applying the proposed motion generation process.
산업현장에서 단순 조립 작업을 무한히 반복하는 기존의 로봇과는 달리 휴머노이드 로봇은 일상생활에서 사람과 밀접하게 생활하며, 사람에게 유용한 서비스를 제공할 수 있는 능력을 지녀야 한다. 이를 위해서는 휴머노이드 로봇은 집안 어디나 자유롭게 돌아다닐 수 있는 이동성을 지니고, 사람의 요구를 인식하고 해결할 수 있는 지능을 지니며, 사람과의 인터랙션을 잘 할 수 있도록 세밀한 동작을 생성할 수 있어야 한다. 본 연구는 로봇의 동작 생성에 대한 내용을 다루고 있다. 로봇의 동작을 기존의 프로그래밍 코드 기반으로 생성하는 것은 매우 힘든 일이기 때문에 더 직관적이고 쉬운 방법을 제안하고자 한다.
본 연구는 사람의 실연으로부터 휴머노이드 로봇의 동작을 생성하는 방법을 제안하고 있다. 사람의 동작을 얻기 위하여 입기 쉽고 사용하기 편한 웨어러블 인터페이스를 설계하고, 그 프로토타입을 개발하였다. 마그네틱 센서 시스템을 이용하여 사람의 어깨와 손목 관절의 움직임을 얻어내고, 이를 통해 사람의 상반신의 동작 데이터를 추출하였다. 사람과 로봇의 구조적 차이를 해결하기 위해 기구학적 해법을 통해 사람의 동작을 로봇의 관절각으로 변형시키고, 정규화 과정을 통해 팔 길이의 차이에서 오는 불일치를 해결하였다. 이렇게 생성된 로봇의 동작을 곡선 단순화 알고리즘과 클러스터링 기법을 이용하여 추후 수정이 용이하도록 두 가지 형태의 동작모델을 생성하였다. 계층적 동작 모델은 단순한 기본 동작의 학습을 통해 다양한 기본 동작의 셋을 마련하고, 이의 조합으로 상위 동작을 만들어내는 모델이다. 확률적 동작 모델은 반복적인 패턴을 가지는 동작으로부터 반복되는 패턴의 형태를 확률적으로 모델링하는 방법이다. 계층적 동작모델을 이용하여 스크립트를 기반으로 하는 작업 시나리오를 작성하여 로봇의 동작을 생성하였으며, 확률적 모델을 통해서는 춤과 같이 길이가 길고 반복적인 동작을 생성하였다. 하나의 동작으로부터 동작의 방향 및 크기의 변형을 통해 다양한 여러 동작을 생성하는 방법을 제안하였으며, 확률적 모델을 통한 변형된 동작을 생성하는 방법 역시 제안하였다.
본 연구는 사람의 실연으로부터 로봇의 동작을 생성하는 도구를 제공함으로써 로봇 프로그래밍에 문외한인 사람이라도 로봇의 동작을 쉽게 생성할 수 있는 가능성을 제공하고 있다. 또한 계층적 동작 모델과 확률적 동작 모델을 통해 한번 학습한 동작의 재사용성을 높여 새로운 로봇 콘텐츠 생성을 쉽게 하고 있다. 이러한 기법은 향후 로봇 시장의 확대 및 일상생활에서의 다양한 로봇 콘텐츠를 접할 수 있는 계기가 될 것으로 기대한다.