The main objective in a change point detection problem is to develop algorithms for efficient detection of gradual and /or abrupt changes in the parameter distribution of a time series data. In this dissertation, we propose a Modified Cumulative Sum (MCUSUM) algorithm for the detection of the start and end time points of a gradual change in the mean value of a time series data based on the Likelihood Ratio and Maximum Likelihood principles. The design, implementation and performance of the proposed algorithm for a gradual change detection is evaluated and compared to the existing algorithms used for the detection of abrupt and /or gradual change in the process mean known as the CUSUM and Chen and Gupta (C&G) algorithms respectively, using the mean detection delay as the performance measure. The performance of the three algorithms is evaluated using Monte Carlo Simulations. In terms of the mean detection delay, the MCUSUM procedure is found to have a comparably good performance than the two existing algorithms for the detection of the two change points.
시계열 데이터의 매개 변수 분포의 점진적/급작스런 변화를 효율적으로 감지하는 알고리즘 개발은 변화 감지 문제의 핵심 목적이다. 이 학위 논문에서 제안하는 MCUSUM(Modified Cu-mulative Sum) 알고리즘은 우도비와 최대우도법에 기반하여 시계열 데이터 평균값의 점진적 변화의 시작점과 종점을 감지하는 알고리즘이다.점진적 변화 감지를 위해 제안한 이 알고리즘의 설계, 구현, 성능은 평균 감지 지연을 기준으로 평가하였고, 기존에 있던 알고리즘인 CUSUM 알고리즘과 Chen and Gupta (C&G) 알고리즘과 비교해보았다. 알고리즘의 성능은 몽테카를로 시뮬레이션을 활용하여 평가하였다. 평균 감지 지연을 기준으로 MCUSUM 알고리즘을 기존에 있던 두 알고리즘과 비교한 결과, 변화가 일어난 두 점을 감지하는데 있어서 기존 두 알고리즘과 비교할 수 있을만큼 좋은 성능을 보였다.