Recently, mobile video communications have been increasingly being used. However, video calls can only share part of the participants' information, not share the participants' full physical information. This information loss makes unclearness to video call users when communicating with deictic words such as here or there. It is also challenging to discover precisely where the other person is pointing beyond the video with 360-degree video calls. This study proposes interaction using spatial sound to reduce the frustration on matching field-of-view between participants in a 360-degree video call. A formative study was conducted for designing spatial auditory cues for video communication to determine between four different types of sounds: speech, non-speech, continuous, and non-continuous. The result shows that the resolution of speech and non-speech spatial sound is similar. Two spatial auditory cues were designed for a 360-degree video call system. This interaction technique, which uses spatial sound, was evaluated in the in-lab environment for matching views between two 360-degree video call participants.
오늘날 모바일 디바이스를 활용한 비디오콜이 사용되는 사례가 많아지고 있다. 비디오콜은 참여자의 물리적인 정보 중 일부만을 공유할 수 있다. 이 때문에 비디오 너머의 상대방이 가리키는 바가 정확하게 무엇인지 알아내기 어려워 방향 지시 불일치 문제가 발생하게 된다. 360도 비디오 콜에서 이 문제는 더 도드라지게 나타난다. 본 연구는 360도 비디오콜에서 통화에 참가하는 사용자들간의 시점 일치 과정에서 겪는 곤혹스러움을 줄여주기 위해 입체음향을 활용한 인터렉션을 제안한다. 비디오 커뮤니케이션에 활용될 입체음향을 디자인하기 위해서 서로 다른 네 종류의 입체음향의 해상도를 파악하기 위한 실험을 진행했다. 실험 결과 언어적인 음향과 비언어적인 음향의 해상도가 유사함을 발견했고, 이를 바탕으로 비디오콜 시스템에 활용될 두 종류의 입체음향을 디자인하였다. 실험실 환경에서의 실험을 바탕으로 목소리를 비디오 커뮤니케이션 시스템에서 편리하게 느껴지는 사운드 인터렉션을 디자인하였다.