Brain-actuated robotic systems have been proposed as a new control interface to translate different human intentions into appropriate motion commands for robotic applications. This study proposes a brain-actuated humanoid robot navigation system that uses an electroencephalography-based (EEG-based) Brain-Computer Interface (BCI). The experimental procedures consist of offline training, online feedback testing, and real-time control sessions. During offline training sessions, amplitude features from EEGs are extracted using band power analysis, and informative feature components are selected using the Fisher ratio and the linear discriminant analysis (LDA) distance metric. The two classifiers are hierarchically structured to identify human intentions and trained to build an asynchronous BCI system. In navigation experiments, subjects controlled a humanoid robot in an indoor maze using the BCI system with real-time images from a camera on the head of the robot. The results show that five healthy subjects successfully navigated the indoor maze using the proposed brain-actuated humanoid robot navigation system.
뇌-작동형 로봇 시스템은 인간의 의도나 상상을 적합한 움직임에 관한 명령으로 해석할 수 있는 새로운 방식의 인터페이스를 제안해왔다. 이 연구는 뇌파 기반의 뇌-기계 인터페이스 시스템을 이용하여 휴머노이드 로봇 네비게이션 시스템을 제안하고 있다. 실험 절차는 오프라인형 훈련 기간, 온라인형 훈련 기간 그리고 실시간 제어 기간으로 나뉘어져서 실행되었다. 오프라인형 훈련 기간과 온라인형 훈련 기간에는 미리 정해진 왼손, 오른손, 발의 움직임에 관한 상상을 하는 동안 피험자의 뇌파를 측정하고, 이로부터 주파수 분석기법을 통하여 진폭 특성 값들을 추출하였으며, 정보량의 많이 포함된 특성 컴포넌트를 Fisher ratio 와 Linear Discriminant Analysis (LDA) 거리 기준법을 통해 선택하였다. 그리고 두 개의 분류기(classifier)를 계층적으로 구조화시켜서 비동기식 뇌-기계 인터페이스를 학습시켰으며 이를 통해서 인간의 움직임의 의사를 확인할 수 있는 시스템을 구현하였다. 실시간 네비게이션 실험에서 피실험자는 실내에 설치된 미로에서 로봇의 머리에 위치한 카메라를 이용하여 실시간으로 주변의 상황을 확인하며 로봇을 실시간으로 제어할 수 있다. 총 5명의 피실험자에 대해서 뇌-기계 인터페이스 시스템을 학습시키고 실내의 정해진 미로에서 휴머노이드 로봇 네비게이션 시스템을 제어한 결과 키보드 제어에 비해 80% 정도의 성능을 나타냄을 확인하였다.