Mobile robots are rapidly increasing the application area for robotics in today's world compared with a couple of decades ago. One of most difficult challenges in mobile robotics is real-world navigation. A real world can be changed suddenly and this change makes robot relinquish planning actions in advance. In order to overcome such a change behavior-based navigation was introduced, which decomposed the problem of autonomous control by task rather than by function. Each behavior, special-purpose task-achieving module, handles sensors and actuators directly. Since a behavior had minimal memory and a lack of relationship among them, it had a difficulty in planning deliberate actions and in communicating with humans.
To overcome such problems, we propose a new control strategy combining both the merits of behavior-based and planner-based approaches. The architecture has three major portions: Behaviors, Planner, and Coordinator. The Planner plays two important roles as a flexible human interface and the planner itself. It can interpret a sentence coming through multimodal human interfaces like voice and build topological map corresponding to the sentence. The Coordinator served as an interface between Behaviors and Planner and guided Behaviors to accomplish meaningful tasks according to guidelines from the Planner and the Position estimator which estimated robot's posture in the topological map. In order to manage Behaviors the Coordinator made a wake-up list which contained those behaviors which should be activated. Since Behaviors are independent processes in the view of the operating system, they are scheduled by an operating system and only activated behaviors are able to produce their control outputs. These control outputs can try to control the same actuator simultaneously because they are made without consideration for the other behaviors. In order to resolve this conflict we designed a two-stage blender which considered how to surmount the drawbacks of integration and winner-take-all strategies.
We provide, as a real control experimental result using the proposed method, a brief description of the intelligent mobile robot CAIR-2 and '95 IJCAI/AAAI Robot Competition and Exhibition where it placed first in the Office Delivery event.
최근 20여년간 이동로봇의 응용분야는 급속하게 확대되었으며 그중에서 가장 어려운 분야중의 하나는 실세계 운항이다. 실세게는 급작스러운 변화가 존재하는 공간이기때문에 로봇이 미리 그의 움직임을 계획한다는 것은 불가능하다. 이러한 문제를 해결하고자 행위기반 방식이 제안되어졌으며 이것은 자율 제어를 기능보다는 행위로 분할하여 처리하였으며 일반적으로 센서와 작용기를 직접 연결하고 최소한의 기억장소를 가지므로 지식을 기반으로한 사려깊은 행동을 하거나 인간과 대화하는 것에 어려움을 지니고 있다.
이러한 문제를 해결하고자 본 논문에서는 행위기반 방식과 계획기반 방식의 장점만을 취한 새로운 통합 제어 구조를 제안한다. 이 구조는 세개의 중요한 구성을 가진다. 행위자, 계획기, 그리고 조정자. 계획기는 유연한 휴먼 인터페이스와 계획기 본래의 기능 두가지를 역활을 한다. 이것은 음성과 같은 다중 휴먼 인터페이스를 통하여 들어온 문장을 분석하고 그것에 상응하는 위상지도(topological map)를 생성한다. 조정자는 행위자와 계획기간의 인터페이스에 상응하며 로봇이 의미있는 일을 할수 있도록 위치추정기와 계획기에 의하여 주어진 지침에 따라서 행위자를 가이드한다. 위치추정기는 위상지도상에서의 로봇의 위치를 예측한다. 행위자를 관리하기 위해서 조정자는 활성화될 행위자를 갖고있는 리스트를 만든다. 운영체제 입장에서 행위자는 하나의 독립된 실시간 프로세스이므로 운영체제에 의해서 제어되며 오직 활성화된 행위자만이 제어신호를 만들수 있다. 그러나 작용기는 한순간에 오직 한개의 신호만을 처리하므로 복수개의 행위자로 부터 들어오는 제어신호들를 반드시 하나의 신호로 만들어야한다. 그러나 이들은 고유의 목적이 다르므로 충돌이 발생하고 이때 정보의 손실등을 초래할수 있으므로 이들 문제를 해결하고자 본 논문에서는 이단계융합기를 제안한다.
본 논문에서 제안된 방법을 사용한 실험결과로서 95년도에 카나다에서 열린 국제인공지능학술회의와 미국인공지능학회가 공동 주최한 국제 로봇 시합에 대해서 설명한다. 여기서 우리는 실내운항부분에서 1등을 했다. 그리고 지능형 이동 로봇 CAIR-2에 대해서도 설명한다.