In this thesis, I designed and implemented the 3D Sensor Table to sense the movement of bare-hand over the screen. This involved choosing the appropriate tracking methods, designing the hardware, and finally developing algorithms to determine the location and classify the posture of bare-hand. The hardware was designed so that the electric field sensing technique was used to get information of the movement of bare-hand. The algorithms used in this system were designed and implemented to best locate the position and recognize the posture of bare-hand. The 3D Sensor Table can detect the motion of bare-hand in the spaces 20 ~ 30 cm away from the screen and can classify simple postures of hand such as straight-hand, fist-hand, and knife-hand posture. This system can be used for the three-dimensional graphical applications through bare-hand and also, can be used for the 2D graphical applications seamlessly. In contrast to vision-based systems, the 3D Sensor Table does not suffer from lighting condition, background complexity problems, and etc.
3차원 센서테이블은 3차원 디스플레이가 내장된 테이블 위에서 사용자의 맨손이 움직일 때 그것을 감지하고 반응하는 센싱정보를 처리하도록 만든 것으로 양안시차 방식의 3차원 입체영상에서 보여지는 가상의 오브젝트와 사람과의 인터렉션이 가능하도록 설계되었다. 본 연구에서는 3차원 공간에서의 맨손을 이용한 사람과 컴퓨터 간의 인터렉션 방법에 중점을 두고 있는데 맨손의 위치정보와 모양정보를 알기 위해서 Electric field Sensing 기법을 이용하였다. 현재 구현된 3차원 센서테이블은 테이블로부터 30cm이내의 거리에서 움직이는 맨손의 위치를 측정할 수 있었고 15cm이내의 거리에서 간단한 손모양을 인식할 수 있다. 이를 통해서 기존의 마우스나 키보드가 가졌던 3차원 공간에서 사용할 때 불편했던 점들을 해소하고, 직관적이면서도 누구나 사용하기에 쉬운 인터페이스 방법을 제시함으로써 사람과 컴퓨터와의 인터렉션 방법을 확장시킬 수 있다. 또한 기존의 많은 연구에서 맨손을 이용한 기법들이 주로 2D 기반이었던 것에 비하여 본 시스템은 2D 뿐 아니라 3차원 공간에서도 활용할 수 있다는 장점을 가진다.