초록 close

본 논문에서는 변이-움직임의 관계와 특징점을 이용하여 계층적으로 3차원 모델을 만드는 새로운 방법을 제안한다. 일반적으로 실제 영상으로부터 3차원 모델을 만들기 위해서는 두 영상 전체의 대응 정보를 이용해서 모델의 노드에 해당하는 부분의 깊이 정보를 구해야 한다. 그러나, 이 작업은 시간이 많이 소요될 뿐만 아니라 정확한 깊이 정보를 얻기가 어렵다. 이러한 문제점을 개선하기 위해 제안하는 방법에서는 전 영상의 대응 정보 없이 특징점에 대한 대응 정보만으로 모델을 구한다. 제안한 방법은 객체의 추출, 추출된 객체 내에서의 특징점 추출, 추출된 특징점을 이용한 계층적 3차원 모델 생성의 세 부분으로 구성되며, 제안한 방법은 3차원 모델 생성시 적은 연산이 소요될 뿐만 아니라 임의의 시각 관점 영상의 생성과 평탄 영역의 평탄성과 경계 영역의 선명성 표현에도 효과적이다.


This paper proposes a new 3D modeling technique using disparity-motion relationship and feature points. To generate the 3D model from real scene, generally, we need to compute depth of model vertices from the dense correspondence map over whole images. It takes much time and is also very difficult to get accurate depth. To improve such problems, in this paper, we only need to find the correspondence of some feature points to generate a 3D model of object without dense correspondence map. The proposed method consists of three parts, which are the extraction of object, the extraction of feature points, and the hierarchical 3D modeling using classified feature points. It has characteristics of low complexity and is effective to synthesize images with virtual view and to express the smoothness of plain regions and the sharpness of edges.