3D avatars have been used in the various fields, such as ergonomic design anthropometry, on-line game and animation film. Moreover, there are potential needs, like on-line garment shopping, health and medical treatment, of 3D avatars. Although 3D avatars have lots of applications, there have been few of research on 3D avatars creation method.
In this thesis, we present a data-driven approach to the problem of reconstructing 3D avatars from 2D images. One of the key tasks in reconstructing the 3D model from image data is shape recovery, a task done until now in utterly geometric way, in the domain of human body modeling. In contrast, we use data-driven deformable models that are obtained in a priori, where a collection of range scans of real human body is structured and statically processed. We use a sparse set of feature points and silhouette data both on the input images and on the template model to optimize the deformation parameters, such that the resulting model best matches the given silhouette. In the presence of ambiguity either from the noise or missing views, our technique has a bias towards representing as much as possible the previously acquired shape. We then generate texture coordinates by projecting the modified template model onto the front and back images. Our technique has shown to reconstruct successfully 3D avatars from a single or a number of orthogonal images.
본 논문은 인체 스캔 데이터를 예제 데이터베이스로 사용하여 2차원 사진으로부터 3차원 아바타 모델을 생성하는 기술을 제안한다. 직접 기하학적인 변형을 통해 3차원 아바타를 생성하는 기존의 방법들과는 달리, 미리 스캔한 다수의 3차원 인체 형상 모델 데이터베이스를 사용하여 사진에 나타난 실루엣과 가장 일치하도록 기본 모델을 변형 및 계산함으로써 모델을 획득한다. 본 연구는 예제 기반의 모델 변형 방법이 가지는 사실적인 인체 모델 생성의 장점, 2차원 사진을 이용한 방법이 가지는 텍스쳐 매핑 및 실루엣 정보 반영의 장점을 모두 가진다. 또한 관절 구조를 지닌 기본 모델을 사용하기에 추가적인 작업 없이 즉각적인 애니메이션이 가능하다는 장점을 가진다. 변형된 모델은 입력된 사진으로부터 텍스쳐 좌표를 생성하고 텍스쳐 매핑을 가하여 사용자와의 사실성을 높인다. 본 연구는 스캔 데이터를 사용하기에 간단한 사용자 입력 혹은 한 장의 사진입력만으로도 3차원 아바타를 생성할 수 있다. 스캔 데이터는 주성분분석을 통해 저차원의 주성분의 공간으로 분석되었으며 효율적인 검색이 가능하다. 최종 모델은 의류 전자상거래에 활용될 가능성을 보이며 결과 모델을 실제 실험자의 스캔 데이터와 비교를 통해 검증한다.