Texture mapping is one of important processes for 3D content creation. It generally means adding visual detail by applying an image to a mesh object. This process typically includes editing positions of texture vertices to match all visual correspondences between a 2D image and a 3D mesh, and remains a tedious, time-consuming, and expensive task. Recent researches used feature points which constrain parameterization to get mapping results with less distortion of an image and less manual effort. Our method generates feature points automatically on user drawn contours which defines a texture mapping area by matching its skeleton to that of a texture image. Initial skeletons for 2D and 3D contours are extracted by applying Chordal Axis Transform (CAT). For each of 2D and 3D contours, shape trees can be constructed by pruning and merging morphologically meaningless edges from initial skeletons. Matching between two shape trees is a similar process to Depth First Search algorithm and can decide all of matches by traversing trees with predefined rules. Using this matching algorithm, we can generate feature points on various contours without additional syntactic structures that describe shape singularities and can match shape trees which have different morphological structures to each other.
텍스쳐 매핑은 3D 콘텐츠 제작 과정에 있어 중요한 단계에 해당한다. 보통 텍스쳐 매핑은 메쉬 오브젝트의 시각적인 디테일을 더하기 위해 2D 이미지를 적용하는 것을 의미한다. 이 과정은 보통 텍스쳐 정점들의 위치를 수정해서 2D 이미지와 3D 메쉬간의 시각적인 대응점들을 모두 맞추어 주는 작업을 의미한다. 최근 연구에서는 2D 이미지의 변형이 최소화 되면서도 예전보다 적은 수작업을 통해서 매핑 결과를 얻을 수 있도록 대응점을 사용해서 파라메터라이제이션 과정에 제한을 두고 있다. 본 연구에서 제안한 방법은 사용자가 입력한 텍스쳐매핑 대상 메쉬와 이미지의 뼈대구조를 서로 매칭해서 이러한 대응점을 자동으로 생성하는 것이다. 2D와 3D 윤곽선에 대한 초기 뼈대는 Chordal Axis Transform을 적용해서 추출하게 된다. 각 2D와 3D윤곽선의 shape tree는 이러한 초기 뼈대로부터 형태상학적으로 의미 없는 에지들을 제거하고 병합함으로써 구성될 수 있다. 2개의 shape tree간의 매칭은 Depth First Search 알고리즘과 유사한 방법으로 다양한 윤곽선들에 대해 그것의 형태적 특이성을 설명하는 부가적인 구문구조 없이 자동으로 대응점들을 생성할 수 있고 윤곽선들이 서로 형태상학적으로 다른 구조를 가지고 있더라도 대응점을 찾아낼 수 있다.