Background subtraction is a common method for detecting foreground regions in visual surveillance systems. Since background subtraction is usually the first step of the visual surveillance system, minimizing the processing time and memory consumption is crucial to the performance of entire system. In this paper, we propose two kinds of improved background subtraction methods which consider temporal redundancy and spatial redundancy, respectively. Firstly, we propose a fast cascaded background subtraction method (FCB) which combines frame difference and Gaussian mixture model. By exploiting temporal redundancy in a cascaded fashion, we can reduce the processing time while maintaining the high detection accuracy. Secondly, we propose a memory-efficient cluster-level background subtraction (MCB) to utilize spatial redundancy. By combining similar pixel-level background models into one cluster-level background model, we can considerably reduce the memory consumption for storing the background model. Finally, we combine two methods to take advantages of temporal and spatial redundancy at the same time.
배경 제거 기법은 영상 감시 시스템에서 전경을 검출하기 위해 가장 널리 사용되는 전처리 과정이다. 그러므로 배경 제거에 요구되는 연산 시간 및 메모리 사용량을 줄이는 것은 전체 시스템의 동작 성능에 큰 영향을 미치게 된다. 이 논문에서는 배경 제거에 필요한 연산 시간 및 메모리 사용을 감소시키고자 하며, 이를 위해 영상의 시간적 중복성과 공간적 중복성을 활용하여 효율적으로 전경을 검출하는 방법을 제안한다.
먼저, 영상의 시간적 중복성을 활용한 단계별 배경 제거 기법을 제안한다. 기존의 가우시안 혼합 모델 기반 배경 제거 알고리즘은 매 프레임마다 가우시안 모델을 이용해 전경을 검출하고 파라미터를 갱신하므로, 시간적 중복성이 매우 높다. 따라서 프레임 간의 차이 값을 통해 시간적 중복성을 우선적으로 파악하고 이를 활용해 가우시안 혼합 모델을 선택적으로 사용함으로써 배경 제거를 위해 요구되는 연산 시간을 감소시킨다.
또한, 영상의 공간적 중복성을 활용한 배경 제거 기법을 제안한다. 기존의 가우시안 혼합 모델 기반의 배경 제거는 배경 정보를 픽셀 단위로 저장하고 있으므로 메모리 소모량이 크다. 따라서 영상의 공간적 중복성을 먼저 파악하고, 이를 활용하여 배경 정보를 픽셀에서 클러스터 단위로 병합함으로써, 배경 제거에 필요한 메모리 사용량을 대폭 감소시킨다.
끝으로, 앞서 언급한 두 배경 제거 응용 기법을 결합해보고, 이를 기존의 배경 제거 기법들과 연산 시간 및 메모리 사용 측면에서 비교하여 본다. 그리고 이를 실제 임베디드 환경에서 직접 검증한다.