In this thesis, we propose a method to establish a many-to-many feature point correspondence for region-based facial expression cloning. By exploiting the movement coherency of feature points, we first construct a many-to-many feature point matching cross source and target face models. Then we extract super nodes from the relationship of source and target feature points. Source super nodes that show a strong movement coherency are grouped into concrete regions. The source face region segmentation result is transferred to the target face via the one-to-one super node correspondence. After we obtain corresponding regions on source and target faces, we classify face mesh vertices to different regions for later facial animation cloning. Since our method reveals the natural many-to-many feature point correspondence on source and target faces, each region is adaptively sampled by varying number of feature points. Hence the region segmentation result can preserve more mesh deformation information.
본 논문에서는 영역기반 얼굴 표정 복제를 위한 다대다 대응 특징점 수립에 관한 방법을 제안한다. 특징점 사이에 움직임의 유사도을 측정하여 소스와 타겟 얼굴 모델간의 다대다 특징점 매칭을 구한다. 소스와 타겟 특징점들 사이의 관계로부터 수퍼노드를 추출해낸다. 움직임의 유사성이 매우 높은 수퍼노드는 몇 개의 영역으로 그룹화할 수 있다. 소스 얼굴 영역 분할 결과를 앞서 구한 일대일 수퍼노드 대응에 따라 타겟 얼굴로 전송한다. 특징점이 아닌 정점들을 각각의 영역에 따라 분류한다. 기존 연구와 비교해서, 본 방법은 특징점 수가 현저하게 다른 얼굴 영역에 대해서도 주어진 표정 공간을 잘 반영할 수 있는 장점을 가진다.