In disaster environments such as fire sites, vision-based sensing, which was used to estimate the position of unmanned aerial vehicles, is difficult to apply due to smoke or dust. To overcome this, this paper proposes a way to estimate the 3-D position and orientation of an unmanned aerial vehicle through the tightly-coupled sensor fusion of UWB radio communication-based distance data and IMU data. By default, iterative extended Kalman filter was used to estimate the state vector of the position and orientation and to update based on sensor measurements. In addition, algorithms were constructed to add biases and the scale factor of the gyroscope within the IMU, and biases in the accelerometer to form a tightly-coupled system.
화재 현장과 같은 재난 환경에서는 농연이나 분진 등으로 기존의 무인 비행체의 위치 인식에 활용하던 비전 기반의 센싱을 적용하기 어려운 문제가 있다. 이를 극복하기 위해 본 논문에서는 UWB 무선 통신 기반의 거리 데이터와 IMU 데이터의 강결합을 통한 무인 비행체의 3차원 위치 및 자세를 추정하는 방법을 제안한다. 기본적으로 반복 확장 칼만 필터를 통해 위치 및 자세의 상태 벡터를 추정하고 센서 측정값을 바탕으로 업데이트하는 과정을 반복 수행한다. 더불어 상태 벡터에 IMU내 자이로스코프의 바이어스 및 스케일 상수, 가속도계의 바이어스를 더해서 강결합 시스템이 되도록 알고리즘을 구성하였다.