Recently, Mobile Augmented Reality (MAR) is highlighted as a service that is feasible with the deployment of 5G cellular system. Previous researches have focused on the efficient usage of Mobile Edge Computing (MEC) server for the MAR services or enhanced Computer Vision approaches which use Machine Learning or Deep Learning. These researches are not considering Object Detection using the object location information such as relative coordinate or absolute coordinate of objects. In this thesis, we study the feasibility of Object Detection using object location information, proposing the system which uses the MEC server to store the Object Detection results with the object location information and to fetch them for the later use based on the location information of user and object location and user interaction. Our experiments show that the proposed system shortens the Object Detection Latency about one out of ten times faster than the YOLOv3Tiny model using little CPU computation power which is a quarter of it from the Object Detection approach which uses mobile device only.
최근, 모바일 증강 현실은 5G 이동통신 시스템의 구축으로 인해 실현 가능한 서비스로 부각되고 있다. 이전 연구에서는 이러한 모바일 증강 현실을 위해 모바일 엣지 컴퓨팅 서버의 효율적인 사용이나 머신러닝, 딥러닝을 사용하는 컴퓨터 비전 접근 방식에 초점을 맞추었다. 이들 연구는 상대 좌표 또는 절대 좌표와 같은 객체 위치 정보를 이용한 객체 탐지를 고려하지 않았다. 본 학위논문에서는 모바일 엣지 컴퓨팅 서버를 사용하여 객체 위치 정보를 저장하고 추후에 방문하는 사용자 및 객체 위치 정보와 사용자 상호 작용의 정보를 기반으로 객체 탐지 결과를 가져오는 시스템을 제안하여 객체 위치 정보를 이용한 객체 탐지 실현 가능성을 연구한다. 우리의 실험에 따르면 제안된 시스템은 로컬 전용 객체 탐지 접근 방식의 4분의 1 정도의 CPU 계산력을 이용하여 기존의 YOLOv3Tiny 모델을 모바일 디바이스에서만 실행한 것보다 약 10배 더 빠르게 객체 탐지 지연시간을 단축할 수 있다.