서지주요정보
(A) peer-to-peer web caching of large objects on a high bandwidth network = 고대역폭 망에서의 피어투피어 방식을 활용한 큰 자료들의 웹 캐슁
서명 / 저자 (A) peer-to-peer web caching of large objects on a high bandwidth network = 고대역폭 망에서의 피어투피어 방식을 활용한 큰 자료들의 웹 캐슁 / Hyun-Chul Kim.
발행사항 [대전 : 한국과학기술원, 2005].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8016609

소장위치/청구기호

학술문화관(문화관) 보존서고

DCS 05008

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

The rise of the Web, the development of compression techiques such as MPEGs, and gigantic archives of seientific data sets have transformed the Internet into a wide-area multimedia delivery substrate. As the advances in network technologies are leading to huge bandwidth increases, users with high bandwidth connectivity have started to download all kinds of very large objects routinely. As content providers redesign their sites to target such users with high bandwidth Internet access, characteristics like the file type, file size and transfer size distribution will also change, and may vary more substantially between users with high access speeds and those with lower speed access. Observing these trends, some recent studies on Web traffic have speculated that (1) delivery of large objects are more likely to cause intense bursts in Web workloads rather than a large number of small objects do, and (2) these intense bursts caused by transfer of large objects will place even more load on network elements such as web caches and Internet backbones that lie along the delivery path. Though this may cause web caching to be a critical cause for scalability impairing in a high bandwidth network environment, there has not even been any study that measures and quantifies the impact of the intense bursts caused by delivery of large objects on the performance of web caching. Our contributions in this paper are the following twofold. First, we remedy this situation by performing a detailed analysis on the impact of large object delivery on web caching performance, focusing on cache's bandwidth usage and response times. We find that, during peak times, even a small number of concurrent requests for large objects often cause significant degradation in web caching performance, on a high bandwidth network. According to our analysis, about one third of requests for small objects are affected and delayed due to concurrently requested large objects. In some extreme cases, response times taken to deliver small objects even by more than hundreds of thousands of times, due to concurrently delivered large objects. We argue that this cache bottleneck problem caused by delivery of large objects is a serious problem to address, since it could actually lead to spontaneous disconnection in web traffic for all concurrent downstream users. Second, as a solution to the previously defined web cache server bottleneck problem, this paper proposes a hybrid web caching architecture which exploits the resource scalability of the peer-to-peer model and high processing power of dedicated server model. Its peer-to-peer caching component enables efficient sharing and delivery of large objects among users on a high bandwidth access network. The proposed caching scheme enables each desktop machine's local cache storage and large objects in it to be shared among users on the same access network and thereby constructs a virtual lego-like web cache, dedicated for caching and delivery of large objects. We evaluate the proposed model through trace-driven simulation and show that it performs the task of caching and delivery of large objects in an efficient and cost-effective manner, without imposing overheads on participating peers.

웹의 등장, MPEG과 같은 멀티미디어 자료 생성과 압축 기술, 그리고 네트웍을 통해 제공되는 대규모의 데이터 자원들의 범람으로 인해, 인터넷은 수 많은 사용자들 간의 멀티미디어 자료들을 공유하고 전송하기 위한 광역의 정보 하부 기반으로 변모되어 왔다. 기술의 발달과 더불어 네트워크 대역폭은 계속 증가해왔고, 사용자들은 이러한 고대역폭 네트워크 자원을 이용해 큰 멀티미디어 자료들을 빈번하게 공유하고 다운로드 받기 시작했다. 웹 트래픽을 분석한 최근의 몇몇 연구결과들에 따르면, (1) 몇몇 큰 자료들의 전송 시에 발생하는 트래픽이 많은 수의 작은 자료들의 전송에 의해 발생하는 트래픽보다 갑작스러운 트래픽 폭주 현상에 오히려 더 큰 영향을 미치고 있는 것으로 예측되며, (2) 이러한 웹 상의 큰 자료들의 전송 시에 발생되는 갑작스러운 트래픽들은 그 자료들이 전송되는 경로 상에 위치한 웹 캐쉬나 인터넷 백본과 같은 네트워크 구성요소들에게 심각한 부하를 가져올 것으로 예측되고 있다. 이와 같이 큰 자료들의 빈번한 전송으로 인해 갑자기 발생되는 트래픽으로 인해 웹 캐쉬가 고대역폭 네트워크 상에서 병목현상을 일으켜 웹 자체의 규모 확장성을 위협할지도 모르는 데에도 불구하고, 아직까지 고대역폭 네트워크 상에서 이루어지는 큰 자료들의 전송으로 인해 발생한 트래픽이 웹 캐쉬의 성능에 어떤 영향을 얼마만큼 끼치는지에 관해 측정하고 분석한 자료나 연구가 없다. 본 논문은 이러한 문제를 해결하고자 다음과 같은 두가지 공헌을 한다. 첫째, 본 논문은 큰 자료들의 전송으로 인해 발생된 트래픽이 웹 캐쉬의 성능에 어떠한 영향을 얼마만큼 끼치는지에 대해 측정하고 자세히 분석한다. 그 결과, 피크 타임에는 몇몇 적은 수에 불과한 큰 자료들의 동시 전송이라할지라도 웹 캐쉬의 성능을 심각하게 저하시킨다는 것을 발견한다. 우리의 분석에 따르면, 큰 자료들의 전송에 의해 발생되는 트래픽 때문에, 이들과 동시 전송되고 있는 작은 자료들 중의 3분의 1가량이 지연 전송되고 있다. 극단적인 경우, 몇몇 작은 자료들은 동시 전송되고 있는 큰 자료들에 의해 캐쉬 서버에 병목현상이 일어나는 바람에 캐쉬서버에서 상당시간 지연되어, 사용자들에게 전송 완료되기까지 걸리는 시간이 수십만배 증가하기도 하고, 아예 전송하다가 연결이 끊어져 실패하기도 한다. 이와 같이 고대역폭 네트워크 상의 사용자들이 요구한 큰 자료들의 전송으로 인해 갑자기 폭증한 트래픽은 웹 캐쉬 서버에 병목현상을 수시로 일으키며, 이는 고대역폭 네트워크 상에서 웹 캐쉬를 사용하는 모든 사용자들에게 있어서 꼭 해결되어야 할 심각한 문제다. 본 논문의 두 번째 공헌은, 현재까지 제안되고 사용되어 온 기존의 웹 캐슁 모델들이 이 문제를 해결하는 데에 있어서 어떤 한계를 가지고 있는지를 보이고, 나아가 이를 해결하기 위한 새로운 웹캐슁 모델을 제안한다. 제안된 방식은 고성능의 처리 능력을 가진 전용 서버 기반 캐슁 모델과 자원량의 규모 확장성을 가지 피어투피어 모델이 복합된 하이브리드 웹 캐슁 모델로서, 큰 자료들을 공유하기 위해 사용자들의 기계가 가지고 있는 여유 디스크 자원과 네트워크 대역폭 자원을 활용한다. 본 논문에서 제안된 하이브리드 웹 캐슁 시스템은 고대역폭 네트워크 사용자들이 요구하는 큰 자료들의 전송으로 인해 기존의 웹 캐슁 모델에서 빈번히 발생하는 병목현상을 해결하는 동시에, 시스템에 참여하는 사용자들의 기계에도 큰 부하를 가져오지 않는다.

서지기타정보

서지기타정보
청구기호 {DCS 05008
형태사항 vii, 58 p. : 삽화 ; 26 cm
언어 영어
일반주기 저자명의 한글표기 : 김현철
지도교수의 영문표기 : Kil-Nam Chon
지도교수의 한글표기 : 전길남
수록잡지명 : "Bio-mirror project for public bio-data distribution". BioInformatics, v.20 no.17, pp. 3238-3240(2004)
수록잡지명 : "A measurement study of storage resource and multimedia contents on a high-performance research and education network". Lecture notes in computer science, v.2720, pp. 108-117(2003)
학위논문 학위논문(박사) - 한국과학기술원 : 전산학전공,
서지주기 Reference : p. 51-53
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서