VoD is generally transmitted by unicast to meet its on-demand characteristic, however, when the requests are concentrated on a video, unicast works inefficiently. To take advantage of multicast, patching has been designed. Patching transmit a video using a multicast channels and patch missed data (passed portion before user request) using additional unicast channel. One of patching scheme, threshold-based multicasting opens new multicast stream at an interval time T to maximize the benefit of patching. To enhance the transmission efficiency, various patching schemes and related applications have been developed and need to be developed.
Currently, the proxy cache storages placed nearby the end-users are used with threshold-based multicast for cost reduction. By transmit multicast stream at main server and transmit unicast stream at proxy server, streaming load is divided and shared. However, there was no consideration about the tradeoff between the network channel cost and the proxy storage cost while the threshold-based multicast is working with proxy cache storage. As a result, the number of network channel is not reduced effectively especially for the popular contents, and the cost reduction still not optimized.
In this thesis, we modify the threshold-based cache allocation algorithm by considering the tradeoff relationship between the transmitted multicast channel cost and the cache cost on proxy server for cache. After that, we find the optimized proxy cache storage amount which results minimum cost. The proposed algorithm utilizes fixed length caching for popular videos, and the existing caching mechanism using threshold-based multicast for the remaining normal videos. The proposed algorithm achieves reduction of total system cost compare to the simple adaption of unicast patching stream of threshold-based multicast to a proxy server
VoD를 서비스할 때 on-demand 특성을 만족시키기위해 유니캐스트를 이용해 전송하는 것이 일반적이나, 하나의 컨텐츠에 대한 사용자의 요청이 몰릴 때에는 멀티캐스트를 이용하여 VoD를 서비스를 하는 것이 효율적이다. 이중 대표적인 기법인Patching기법은 사용자의 요청이 발생하면 비디오를 멀티캐스트 스트림으로 전송한다. 이후 다른 사용자가 동일한 비디오를 요청하면 이미 진행중인 멀티캐스트 그룹에 가입시켜 현재의 멀티캐스트 스트림을 받게 하고, 사용자의 요청이 발생하기 이전에 이미 전송된 데이터들은 또 부가적인 유니캐스트 패칭 스트림으로 전송해주는 방식이다. Patching기법은 사용자의 서버로부터 나가는 멀티캐스트와 유니캐스트 패칭채널의 총 길이가 최소한으로 유지될 수 있도록 요청율에 따라 새로운 멀티캐스트 스트림을 동일 간격(T)으로 열어주는threholshold-based multicast기법으로 발전되었다..
한편, threshold-based multicast기법에서 유니캐스트 패칭 스트림의 길이는 T를 넘지않는다는 점에 착안하여, 유니캐스트 패칭스트림을 프록시서버에서 담당하게하는 캐싱 기법이 제안되었다. 이를 통해 서버의 스트리밍로드는 줄었으나 서버와 사용자간의 서버채널비용과 프록시 캐쉬 저장공간의 비용에 대한 고려가 없어, 프록시 캐쉬 저장공간을 도입했음에도 불구하고 이를 효과적으로 이용하지 못하고 있다는 단점이 존재했다.
따라서 본 논문에서는, 기존의 threshold-based multciast를 서버-프록시 구조에 적용할때에 서버의 채널 비용과 프록시 캐쉬의 비용을 고려하여, 인기있는 컨텐츠들(n)에 대해서는 프록시에 저장하는 비디오의 양을 늘려 서버의 채널수를 줄이고, 보통의 컨텐츠들에는 기존의 캐싱 기법을 사용하여 총 비용을 줄였다. 인기있는 컨텐츠 n개의 선택은 n을 1부터 전체 컨텐츠 N까지 증가시켜 감에따라 필요로 하는 프록시 용량에 따른 비용증가와 스트리밍 채널의 감소에따른 비용감소를 계산하여 그 합이 최소화 되는 지점인 n을 찾았다. 선택된 n개의 컨텐츠에 대해서는 캐쉬 저장양을 고정하여 할당해 줌으로써, 컨텐츠의 요청이 늘어나더라도 항상 기존의 방법으로 캐싱 할 때 필요한 전체 비용보다 항상 적은 비용을 필요로 하는 것을 도출하였다.
우리는 수학적 성능분석을 통하여 제안하는 optimal cache allocation algorithm 방식이 중앙서버와 프록시서버에서 threshold-based multicast 기법이동작하는 조건하에서 전체적인 비디오 요청률이 증가할때에도 기존 캐싱 기법보다 조금 더 많은 프록시 캐쉬 저장소를 요구하는 대신 전체 멀티캐스트 채널 비용과 프록시 캐쉬 저장소 공간을 합친 비용이 적게 요구되는 것을 보임으로써 논문을 마무리 짓는다.