When a human performs a task, he assumes a complex mindset to perform the task, and performs the appropriate actions and procedures in order to achieve the task. Consequentially, his behavior appears as a continuous and unlabeled sequence of actions. We present an algorithm for robot to learn and generate task behaviors by imitating such demonstrations. In this algorithm, the robot analyzes the continuous motion trajectory in order to perform a certain task. Through this, the robot learns the unit actions and the procedures required for the task and according to the learned contents and environment, the robot can combine unit actions and rearrange them so that they can autonomously perform tasks. In this way, even if the robot does not have a high level of prior knowledge about task and environmental context, it can grasp the meaning of the behavior from the demonstration of the person and apply it. In addition, we implemented the learning system with minimizing the human intervention in the process.
사람이 어떤 과제를 수행할 때, 그 사람은 과제를 수행하기 위해 복잡한 사고를 하며, 과제를 달성하는 데 적절한 행동과 절차를 순차적으로 수행한다. 그리고 이에 따른 결과는 연속적이고 개별 동작이 구분되지 않는 연속된 동작으로 나타난다. 우리는 이러한 사람의 작업 행동의 시연을 통해 로봇이 사람이 수행하는 작업을 학습하며 이를 사람이 수행하는 환경에서 재현할 수 있는 알고리즘을 제시하였다. 이 알고리즘은 사람이 어떠한 작업을 수행하기 위해 나타나는 연속적인 동작들을 로봇이 분석하여, 이를 통해 작업에 필요한 단위 행동과 작업이 이루어지는 절차를 학습하고, 학습된 내용과 환경에 따라 로봇이 작업의 수행 절차를 재구성하고 단위 행동들을 조합하여 자율적으로 작업을 수행할 수 있도록 한다. 이를 통해 로봇이 고도의 사전 지식 체계를 갖추지 않더라도 사람의 시연으로부터 행동의 의미를 파악하고 이를 응용할 수 있으며, 또한 학습 과정에서 사람의 개입을 최소화하고, 시연을 보여주는 것 만으로 학습이 가능한 시스템을 구현하였다.