Korean Institute of Information Technology

Current Issue

The Journal of Korean Institute of Information Technology - Vol. 22 , No. 3

[ Article ]
The Journal of Korean Institute of Information Technology - Vol. 20, No. 4, pp. 123-130
Abbreviation: Journal of KIIT
ISSN: 1598-8619 (Print) 2093-7571 (Online)
Print publication date 30 Apr 2022
Received 25 Mar 2022 Revised 14 Apr 2022 Accepted 17 Apr 2022
DOI: https://doi.org/10.14801/jkiit.2022.20.4.123

영상 간 유사변환 추정을 위한 정합 쌍의 기하학적인 사전 검사 방법
전소영* ; 이재규**
*국방과학연구소 선임연구원 (교신저자)
**국방과학연구소 선임연구원

Geometric Pre-Test Method of Matching Pairs for the Similarity Transform Estimation between Images
So-Yeong Jeon* ; Jaekyu Lee**
Correspondence to : So-Yeong Jeon Agency for Defense Development, Daejeon, Korea. Tel.: +82-42-822-4271, Email: ncyde2@add.re.kr


초록

영상 내 특징점이 많지 않거나 두 영상의 유사성이 적은 경우, 영상 간 기하 변환 추정에 있어서 아웃라이어를 배제하는 것이 중요하다. 본 논문에서는 영상 간 변환이 유사 변환인 경우에 대해, 특징점들을 잇는 선분들 간의 회전각을 이용하여 아웃라이어를 배제하는 방법을 제안한다. 제안하는 방법은 2만 8천개의 가상생성 테스트셋을 이용해 실험되었고, 추정된 변환 하에서 측정된 거리오차에 기반한 사전 검사 방법과 비교했을 때 정확도는 유사하지만, 기본 수행 속도는 약 1.4배~2배 빨랐고 나쁜 샘플을 기각하는 횟수가 증가할수록 속도는 훨씬 더 빨라졌다. 제안하는 방법은 구현이 간단하고, 정합 쌍 집합의 선택을 위한 손실함수로도 사용될 수 있다.

Abstract

For the estimation of the geometric transform between two given images, it is important to detect the outliers when there exists only a small number of feature points or large dissimilarity between the images. For the case that the similarity transform is the underlying transform, we suggest a method to reject outliers using the rotation angles between the line segments that connect every two feature points. We tested the proposed method using 28,000 synthetically generated test cases and confirmed that its accuracy is similar to that of the pre-test method based on the distance errors measured under the estimated transform, but the base processing speed is about 1.4~2 times higher, and this becomes even more higher when the bad sample rejection increases. The proposed method is simple to implement, and can be used as a loss function to select the appropriate set of matching pairs.


Keywords: similarity transform, geometric similarity, fast outlier detection, RANSAC

Ⅰ. 서 론

두 영상 간의 변환을 추정하는 문제는 컴퓨터 비전 분야에서 오랫동안 다루어진 문제 중 하나이다. 변환에는 유사 변환 또는 호모그래피[1] 등이 사용될 수 있는데, 영상 내에서 관심 물체의 크기가 작은 경우에는 병진 이동(Translation), 회전(Rotation), 비례(Scaling) 변환으로 이루어진 유사 변환(Similarity transform)으로 근사하는 경우도 있다. 그 이유는 지나치게 일반적인 변환을 가정할 경우 변환을 추정하는데 과적합(Overfitting)이 발생할 수 있기 때문이다. 유사 변환을 이용하는 분야에는 이미지 스티칭[2], 얼굴영상의 3차원 자세 복원[3], 위성 영상 정합[4] 등이 있다.

영상 간 변환을 추정하는데 널리 활용되는 접근법은 다수의 국소 특징점을 정합해보고, 그 결과들을 가지고 RANSAC(RANdom SAample Consensus)[5]의 프레임워크를 따라 아웃라이어(Outlier)를 배제하고 가장 적합하다고 판단되는 정합 쌍 집합을 선택하는 것이다. 그러나 영상 내에서 특징점의 개수가 적은 경우(예컨대, 물체의 크기가 작은 경우) 정합 쌍들의 과반수가 정합에 실패할 확률이 높고, 두 영상의 모달리티가 다르거나(예를 들어 가시광 영상과 적외선 영상), 유사성이 떨어지는 경우(주간 영상과 야간 영상)에도 특징점 정합에 실패할 확률이 높다.

특징점들 대다수가 정합에 실패하는 경우에는 아웃라이어를 배제하는 것이 중요하다. 그 이유는 2차원 변환 추정에서는 약간의 추가적인 정합 오차만으로도 완전히 다른 2차원 변환을 추정하는 결과를 얻을 수 있기 때문이다.

본 논문에서는 유사 변환 추정에 사용될 수 있는 정합 쌍 집합의 기하학적인 사전 검사 방법을 제안한다. 정합 쌍의 사전 검사 방법으로는 기본적으로 추정된 변환으로부터 측정한 정합점의 거리오차를 가지고 수행할 수 있는데, 본 논문에서는 더 빠른 방법을 제안한다. 이 방법은 변환행렬 추정이 필요하지 않아 수행 속도가 빠르며 구현이 용이하다.

본 논문의 2장에서는 본 논문에서 제안하는 사전 검사 방법이 적용될 기본적인 프레임워크인 RANSAC과 관련된 연구를 소개하고, 3장에서는 제안하는 기하학적인 사전 검사 방법을 기술한다.

그림 1은 제안하는 기하학적인 사전 검사 방법으로 확장된 RANSAC 프레임워크를 간단히 나타낸 것이다.


Fig. 1. 
Framework of RANSAC[5] extended with the proposed geometric pre-test method

4장에서는 가상 테스트셋을 이용한 실험 결과와 SENSIAC 데이터셋[6]의 일부 영상에 대한 실험결과를 제시하고 5장에서 결론을 맺는다.


Ⅱ. 관련 연구

RANSAC은 아웃라이어가 포함된 데이터들로부터 오차를 최소화하면서 데이터를 가장 잘 설명할 수 있는 모델을 추정하는 방법론이라고 할 수 있다. RANSAC은 모델 추정에서 아웃라이어를 제거하기 위해 모든 데이터를 살펴보는 대신, 모델 파라미터 추정에 필요한 충분히 작은 데이터셋을 반복적으로 샘플링하여 정의된 손실함수에 따라 오차를 최소화하는 샘플을 찾는다.

RANSAC을 다양한 관점에서 개선하고 응용한 방법들이 있는데, 2차원 영상 간의 변환 추정과 관련된 중요한 연구 중 하나로서 퇴화(Degenerate) 데이터 집합으로 인한 잘못된 변환 추정을 피하고 올바른 정합을 찾는 연구가 있다[7]. 퇴화 데이터 집합이란 2차원 영상 간의 변환을 유일하게 추정하기에 부족한 데이터 집합을 말한다. 데이터 수가 아무리 많아도 특정 면 위에 데이터들이 몰려있거나, 일직선상에 데이터들이 존재하는 경우 중복성이 있는 데이터가 포함되어 2차원 영상 간의 변환이 유일하게 결정되지 않을 수 있다. 이 연구에서는 초기 RANSAC 결과에서 중복성이 있는 데이터 포인트를 제거한 뒤, 기존에 분류되었던 아웃라이어를 포함시켜 비퇴화(Non-degenerate) 데이터 집합을 찾는 방법이 제안되었다.

본 논문에서는 퇴화 케이스 보다는 기하학적으로 유사도가 낮은 정합 쌍을 배제하는 데 초점을 맞추고 있으며, 퇴화 케이스를 검출하는 방법과도 결합하여 확장될 수 있다.

RANSAC의 손실함수로서 추정된 변환 하에서 측정된 정합점들의 거리 오차를 이용하는 방법(MSAC, MLESAC)들이 제안되었다[8]. MSAC은 손실함수를 각 점 거리 오차의 클리핑된 오차 함수로 정의하였으며, MLESAC는 입력데이터 중 아웃라이어의 분포는 균등분포이고 인라이어(Inlier)의 분포는 가우시안 분포라고 가정하고 두 분포가 혼합된 모델(Mixture model)을 제안하여 손실함수를 정의하였다. 본 논문에서 제안하는 기하학적 사전 검사 방법은 기하학적인 닮음을 평가하는 함수로부터 유도되기 때문에 본 논문에서는 별도의 손실함수를 사용한다는 점에서 다르다.

한편, MLESAC과 유사하게 인라이어와 아웃라이어의 분포를 다르게 가정하여, 클러스터링을 통해 아웃라이어를 배제하는 연구도 수행되었다[9]. 이 연구에서는 샘플링된 정합 쌍들로 얻은 변환행렬들의 파라미터 공간에 대해 클러스터링을 수행한다. 본 논문에서 제안하는 방법은 인라이어의 오차 분포가 가우시안이 아닌 일반적인 경우에도 적용할 수 있으며, 인라이어 수가 작아서 클러스터링이 유효하지 않는 경우에 유용하다.

RANSAC은 기본적으로 모델 파라미터값 구체화에 필요한 최소데이터만 샘플링하여 모델을 추정하지만, LO-RANSAC[10]과 같은 국소 최적화를 통해 개선하는 방법은 현재까지 찾은 최적 모델을 갱신할 때, 인라이어로 분류된 데이터 집합 안에서 재샘플링을 수행하여 더 강화된 오차 임계값 조건을 만족하는 부분집합을 찾는 방식으로 모델을 국소적으로 개선한다. 이렇게 하면, 샘플링 횟수를 줄이면서도 모델의 정확도를 향상시킬 수 있다. 본 논문에서 제안하는 방법은 사전 검사 방법을 제안하는 것이므로 이러한 국소최적화 방법들과 결합이 가능하다.

샘플링 횟수를 줄여서 처리속도를 빠르게 하기 위해서 LO-RANSAC에서는 찾은 모델이 개선될 때마다, 해당 모델과 부합하는 점들로 인라이어의 비율을 추정하여 추가 샘플링 횟수를 결정한다. Randomized RANSAC[11]은 추정한 모델과 모든 데이터를 비교하기 전에 무작위로 추출한 데이터 포인트만 검사하여 그 결과에 따라 해당 샘플을 배제한다. 본 논문에서 제안하는 방법도 모든 데이터 포인트를 사전에 검사하지 않는다는 점에서 처리속도 향상에 기여할 수 있다. 다만, 제안하는 사전 검사 방법은 아웃라이어가 많을 경우를 가정하여 사용되는 방법이기 때문에 임의의 데이터를 추가로 추출하여 검사하기보다는 샘플 집합 자체의 기하학적인 적합성을 검사하는 방식이다.

S. Choi 등은 RANSAC의 다양한 변형된 버전을 비교하는 방법에 대해 발표하였다[12]. 그들의 연구에서는 RANSAC을 변형한 다양한 방법들의 성능을 비교하기 위해 가상으로 생성된 200개 포인트를 이용하여 직선의 방정식을 추정하는 실험 및 같은 모달리티의 두 영상 간 변환 추정 실험을 수행하였다.

딥러닝 기반의 정합 연구는 의학분야에서 많이 찾아볼 수 있으며, 이러한 연구들은 Haskins 등에 의해 조사되었다[13]. 이 논문에 따르면, 초기 연구는 기존에 널리 사용되었던 영상 간 유사도 측정식과 전문가에 의해 작성된 훈련용 데이터셋을 활용하여 학습하는 방식을 제안하였고, 2017년에 이르러 사전에 학습된 특징 추출기법을 활용하는 비지도학습 방식도 제안되었다. 본 논문에서 제안하는 방법은 훈련용 데이터셋 확보가 어렵거나, 그래픽 프로세서를 활용하기 어려워 연산량에 제약이 있는 경우에 유용하다.

제안하는 방법은 기하학적인 닮음을 기반으로 사전 검사를 수행하는 방법이다. 두 도형의 기하학적인 닮음은 수학적인 관점에서 대응하는 변의 길이의 비가 같고 대응하는 각이 서로 같음을 의미한다. 그러나 닮지 않은 두 도형에 대해서 얼마나 닮았는지를 실수값으로 측정하는 것은 이와 다른 문제다. 닮음 대신에 모델과의 거리 오차를 사용하는 관점에서는 MSAC[8]과 같은 손실함수값을 이용해 임계값을 넘었는지를 검사하는 것이 일반적인 방법이지만 본 논문에서는 기하학적인 닮음 개념에 기반하여 처리속도가 더 빠른 사전 검사 방법을 제안한다. 저자가 아는 한, 유사 변환 추정을 위해 기하학적인 닮음에 기반한 사전 검사 방법을 다루는 연구는 없었다.


Ⅲ. 제안하는 기하학적인 사전검사 방법

제안하는 방법의 수학적 정의를 위해서 먼저 다음과 같이 기호를 정의한다. 주어진 두 영상 A의 특징점 집합 {ai}⊂R2와 영상 B의 특징점 집합 {bi}⊂R2사이에 정합 결과 n개의 ai,bi^R2×R2정합 쌍 을 얻었다고 가정하자. 여기서 aiB의 특징점 bi^와 정합됨을 나타낸다. bi^ai의 이상적인 정합점 bi에 위치 오차 eiPos가 포함되어 bi^=bi+eiPos와 같은 관계가 있다고 가정한다.

제안하는 사전 검사 방법은 정합 쌍 번호 집합 KI (KI⊂{1,2,⋯n}, |KI|=k)로 결정되는 정합 쌍 집합 K=aj,bj^jKI가 적합한 정합 쌍인지 확인하는 방법이다.

υijA를 두 점 aiaj로 이루어진 벡터 aiaj라 하고, υijB를 두 점 bi^bj^로 이루어진 벡터 bi^bj^라 하자. 또한, υijA,υijB를 두 벡터 υijAυijB가 이루는 각을 시계반대 방향으로 측정한 값으로 정의하자. 모든 iKI에 대해서 eiPos=0이면, υijA,υijBυklA,υklB는 같은 값이다. 그렇지 않다면 이 회전각의 차가 작을수록 적합한 정합으로 볼 수 있다. 이러한 논리를 적용하여 회전각 차이 기반의 정합 쌍 적합도 측정 함수 TAng(K)를 다음과 같이 정의할 수 있다.

TAngK=i,j,k,lKIAngDiffυij,υkl(1) 

여기서 AngDiffυij,υkl은 다음과 같이 정의된다.

AngDiffυij,υkl=absυijA,υijB -υklA,υklB (2) 

이 식을 분석하기 위해 오차가 없다고 가정할 때의 참 회전각이 R이고 위치 오차로 인하여 발생한 υijA,υijB의 각도 오차를 eijRot라고 하자 υklA,υklB의 각도 오차도 유사하게 정의된다). 그러면 υijA,υijB=R+eijRot, υklA,υklB=R+eklRot와 같이 표현될 수 있고, 다음과 같이 상한이 성립한다.

AngDiffυij,υklabseijRot+abseklRot(3) 

eijRotυijB의 시점과 종점에서 위치 오차 eiPosejPoseijPos를 극대화시키기 위해 반대 방향으로 발생할 때 최대가 된다. 따라서 eiPosEPos 이면 다음과 같은 상한이 존재한다.

AngDiffυij,υklarctan2EPosυijB+arctan2EPosυklB(4) 

비정상적인 정합 오차로 인하여 식 (4)을 위배할 확률은 한 점의 위치오차가 허용된 범위를 넘을 확률 PeiPos>EPos 보다 낮다고 판단할 수 있다. 그 이유는, 식 (4)을 위배하려면 한 점이 아닌 두 점의 위치 오차가 임의의 방향이 아닌 특정한 방향으로 발생해야 하기 때문이다. 따라서 본 논문에서는 상기 식 (4)의 우변에서 2EPos 대신 EPos을 사용하되 적용분야에 따라 조정하는 것을 제안한다.

제안하는 회전각 차이 기반 사전 검사 방법은 선택된 정합 쌍 집합 K에 대해 상기 식 (4)의 우변 보다 AngDiff(υij,υkl)값이 더 클 경우 정합 쌍 집합 K는 아웃라이어가 포함된 정합 쌍으로 판단하는 것이다.


Ⅳ. 실험 결과
4.1 가상 테스트셋을 이용한 실험

본 논문에서는 유사 변환을 찾는 가상의 테스트셋을 생성하여 제안하는 방법의 성능을 분석하였다. 구체적으로 10개의 특징점의 좌표를 가상으로 생성하며, ±30도 범위의 회전과 ±10픽셀(Pixel) 범위의 병진 이동을 동시에 포함하는 유사 변환에 대해서 실험하였다. 영상 A의 가상 특징점들은 80×80 크기의 2차원 공간에서 임의의 정수 좌표값으로 겹치지 않도록 생성되고, 설정된 실제(True) 유사 변환에 따라 변환시켜 얻은 다른 쪽 영상 B의 정합점들은 오차를 포함시켜 생성되는데, 아웃라이어에 해당하는 정합 쌍은 ±2~±11 범위의 균등분포, 올바른 정합점은 최대 ±1 범위의 균등분포를 따라 정수값의 오차를 더하였다. 이에 따라 인라이어로 판단할 허용위치 오차는 EPos=1로 설정하였고, 오정합 비율은 0.1 간격으로 0에서 1.0(100%)까지 총 11개로 나누어 실험하였다 (오정합 비율=1-(인라이어 비율)). 각각의 오정합 비율값에 대해서는 총 28,000개의 임의 생성된 테스트 케이스를 이용해 실험하였다 (총 11×28,000번의 실험). 수행시간은 Intel Xeon CPU E5-1660 @ 3.70GHz 프로세서로 측정하였다.

모델을 찾는데 필요한 최소 데이터 개수보다 약간 많은 데이터 개수를 활용하면 변환 추정 시 잡음에 더 강건할 수 있다는 것이 알려져 있기 때문에[11], 본 실험에서는 4개의 정합 쌍(|KI|=4)을 선택하도록 실험을 구성하였다 (비교 대상 방법도 동일한 조건 적용). 비교 대상 방법은 샘플링을 수행 후 추정한 모델로 변환시켰을 때, 변환된 결과가 정합결과와 비교하여 모두 EPos 이내인 경우 통과시키는 방법(이하 RejectUnder(#Sample))과 샘플링된 정합 쌍 외에 추가로 하나의 정합 쌍까지 고려하여 샘플링된 개수+1개의 정합결과가 EPos 이내의 오차가 되어야 통과되는 방법(RejectUnder(#Sample+1)) 두 가지를 비교하였다. ‘RejectUnder(#Sample+1)’은 올바른 정합 쌍이 적을 때는 기각(Rejection)이 잘못 발생할 수 있어 현실적으로는 적용이 불가한 방법이지만, 제안하는 방법의 성능 비교에 참고하기 위해 추가로 비교하였다. 제안하는 방법은 본 논문에서는 ‘AngleDiff+AngleReject’로 부른다.

표 1은 오정합 비율에 따른 오차의 평균을 나타낸다. EPos=1일 때 0~0.5 구간의 평균 오차는 ‘RejectUnder (#Sample)’과 비교해서 0.05 이하로 유사하였고, 0.6~1.0 구간에서는 0.25 이하로 유사하였다. 참고로 0.7~1.0 구간은 허용오차 이내의 정합 쌍이 없는 구간이므로, 높은 정합오차가 발생할 수 있다.

Table 1. 
Average error in the experiment of estimating similarity transform
False match ratio RejectUnder(#Sample+1) RejectUnder(#Sample) AngleDiff+AngleReject
0 0.71 0.72 0.67
0.1 0.76 0.77 0.74
0.2 0.81 0.82 0.81
0.3 0.88 0.89 0.90
0.4 0.99 0.99 1.02
0.5 1.23 1.31 1.32
0.6 4.45 2.75 2.50
0.7 8.01 8.56 8.74
0.8 9.29 10.18 10.36
0.9 9.69 10.41 10.55
1.0 9.45 10.27 10.37

그림 2(a)는 오정합 비율에 따른 알고리즘의 실제 기각 비율 (28,000개의 전체 테스트 케이스 중 알고리즘이 유사 변환 추정을 완전히 거부한 비율)을 나타낸다. 이 그림을 보면 기각 비율은 오정합 비율이 0.6 미만일 때 0.01 미만이었고 0.6일 때, 약 0.13의 비율로 기각이 발생하였으며, 0.7에서 절반이상의 테스트 케이스가 기각되었음을 알 수 있다. 이상적인 경우는 0.7부터 기각이 100퍼센트에 가깝게 발생해야 하지만, 실제로 그렇지 않은 이유는 유사 변환을 만들어낼 수 있는 정합 쌍의 경우의 수가 다양하여, 일부 아웃라이어가 포함되었어도 샘플 집합 자체만 놓고 볼 때 기하학적인 닮음 또는 모델과의 거리 오차 관점에서 유효한 정합 쌍이 될 수 있기 때문이다.


Fig. 2. 
Performance comparison result

제안하는 방법은 ‘RejectUnder(#Sample)’과 유사한 기각 비율을 보였으며, ‘RejectUnder(#Sample+1)’은 오정합 비율 0.5부터 잘못 기각된 비율이 0.05가 넘었다.

그림 2(b)는 오정합 비율에 따른 수행시간 변화를 나타낸다. ‘RejectUnder (#Sample+1)’은 사전 검사 과정이 별도로 필요하지 않고 손실함수값 계산을 한 번만 수행하도록 구현되어 수행시간의 감소가 크지 않았다. ‘RejectUnder(#Sample)’은 사전검사에서 샘플링된 정합쌍 집합에 대해서만 손실함수값을 계산하고, 이를 통과하면 나머지 정합 쌍에 대해서 손실함수 계산을 한 번 더하기 때문에 오정합 비율이 낮다면 원래의 RANSAC과 비교해서 약간 더 많은 시간이 소요된다. 그러나 오정합 비율이 0.3보다 커지는 시점부터는 기각이 충분히 발생하여 수행시간을 단축시킨다는 이점이 있다. 한편, 제안하는 방법은 수행시간이 오정합 비율에 따라 현저히 감소하는 것을 알 수 있다. 기각이 발생하는 케이스에서는 변환행렬 추정이 필요하지 않기 때문에 수행시간이 짧았다고 판단된다.

그림 2(c)는 샘플링할 때 선택할 정합 쌍 개수에 따른 실행시간 변화이다. 이 실험은 RANSAC 프레임워크에서 기각에 의한 수행시간 감소영향을 배제하고 수행시간을 측정하기 위해 모든 점의 정합오차는 최대 ±1로 모의하여 실험하였다.

이 결과를 보면 정합 쌍을 5개부터 9개까지 늘려서 선택하더라도 선택된 정합 쌍을 검사하는 시간이 ‘RejectUnder(#Sample)’ 에 비해 현저히 짧다는 것을 알 수 있다. 구체적으로, 4개의 정합 쌍을 선택할 경우는 약 2배, 9개를 선택할 때는 약 1.4배 수준으로 수행속도가 향상됨을 확인하였다.

4.2 적외선 영상과 가시광 영상 간 정합 실험 예제

SENSIAC 데이터셋[6]은 차량의 가시광 및 적외선 영상을 포함한 데이터셋이며, 본 실험에서는 이 데이터셋으로 가시광 영상과 적외선 영상의 정합실험을 수행하였다. 그림 3(a)는 모달리티가 다른 두 영상을 오버랩시키고 그 위에 실제 특징점 정합결과를 표시한 것이다. 두 영상의 유사성이 낮기 때문에 정합 결과가 전반적으로 양호하지는 않았다. 전체 8개의 정합 결과 중 2개는 허용오차 EPos=1 이내이고, 다른 2개는 정합오차가 1보다는 크고 2이하이며 나머지 4개는 모두 정합오차가 약 10을 넘는다. 4개 정합 쌍을 샘플링하여 유사 변환을 추정하는 경우, MSAC[8]의 실행결과는 그림 3(b)와 같다. 허용오차 이내로 들어온 2개의 정합결과만이 손실함수에 영향을 미치고 추가로 선택한 2개의 정합결과는 사전에 설정한 오차범위를 넘어서기 때문에 절삭된다.


Fig. 3. 
Result of the selected matching pairs for the registration of SENSIAC[6] images

따라서 손실함수값에 영향을 미치지 않는 범위내에서는 추가로 선택한 2개의 정합결과의 기하학적인 적합성은 고려되지 않는다.

이러한 선택 결과는 본 논문에서 제안하는 방법 에서 배제된다. 그림 3(c)는 제안하는 방법의 선택 결과이며, 허용오차로 들어온 정합 쌍과 기하학적으로 부합하는 추가 2개의 정합결과를 선택하였고, 그 결과 우수한 정확도를 보였다.


Ⅴ. 결 론

제안하는 기하학적인 사전 검사 방법은 유사 변환 추정에 있어 아웃라이어 개수가 절대적으로 많은 경우에 사용될 수 있으며, 이 방법은 선택한 정합결과들이 이루는 기하학적 닮음을 이용한다. 본 논문에서는 오정합 비율을 변화시켜가면서 2만 8천여개의 가상테스트 데이터셋을 생성하여 실험을 수행하였다. 그 결과, 추정한 변환으로 측정한 거리 오차를 기준으로 기각을 수행하는 방법과 비교하여 정확도와 기각 성능이 유사하였다. 대신, 제안하는 방법은 변환행렬을 추정하지 않기 때문에 처리속도가 빠르다는 강점이 있었다. 제안하는 방법은 빠른 처리속도를 요구하는 강건한 2차원 유사 변환 추정에 유용할 것으로 판단되며, 다른 RANSAC의 변형방법과 결합되어 확장될 수 있다.


References
1. R. Hartley and A. Zisserman, "Multiple view geometry in computer vision", 2nd edition. Cambridge University Press, Mar. 2004.
2. Y. S. Chen and Y. Y. Chuang, "Natural image stitching with the global similarity prior", In European conference on computer vision, Amsterdam, The Netherlands, pp. 186-201, Oct. 2016.
3. H. S. Koo and K. M. Lam, "Recovering the 3D shape and poses of face images based on the similarity transform", Pattern Recognition Letters, Vol. 29, No. 6, pp. 712-723, Apr. 2008.
4. Y. Dong, W. Jiao, T. Long, G. He, and C. Gong, "An extension of phase correlation-based image registration to estimate similarity transform using multiple polar Fourier transform", Remote Sensing, Vol. 10, No. 11, p. 1719, Oct. 2018.
5. M. A. Fischler and R. C. Bolles, "Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography", Communications of the ACM, Vol. 24, No. 6, pp. 381-395, Jun. 1981.
6. US Army Night Vis. and Elec. Sensors Directorate (NVESD), "ATR algorithm development image database", www.dsiac.org, Jul. 2014 [accessed: Jan. 09, 2020].
7. Jan-Micheal Frahm and Marc Pollefeys, "RANSAC for (quasi-)degenerate data (QDEGSAC)", In Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), New York, NY, USA, Jun. 2006.
8. P. H. S. Torr and A. Zisserman, "MLESAC: A new robust estimator with application to estimating image geometry", Computer Vision and Image Understanding, Vol. 78. pp. 138–156, Apr. 2000.
9. S. Beckouche, S. Leprince, N. Sabater, and F. Ayoub, "Robust outliers detection in image point matching", In Proceedings of 2011 IEEE International Conference on Computer Vision Workshops (ICCV Workshops), Barcelona, Spain, pp. 180-187, Nov. 2011.
10. O. Chum, J. Matas, and S. Obdrzalek, "Enhancing RANSAC by generalized model optimization", In Proceedings of the Asian Conference on Computer Vision (ACCV), Jan. 2004.
11. O. Chum and J Matas. "Randomized RANSAC with Td,d test", Image and Vision Computing, Vol. 22, No. 10, pp. 837–842, Sep. 2004.
12. S. Choi, T. Kim, and W. Yu, "Performance Evaluation of RANSAC Family", In Proceedings of the British Machine Vision Conference, pp. 81.1-81.12, Sep. 2009.
13. G. Haskins, U. Kruger, and P. Yan, "Deep learning in medical image registration: a survey", Machine Vision and Applications, Vol. 31, No. 1, pp. 1-18, Jan. 2020.

저자소개
전 소 영 (So-Yeong Jeon)

2011년 2월 : 광운대학교 컴퓨터소프트웨어학과(공학사)

2013년 2월 : 한국과학기술원 전산학과(공학석사)

2013년 4월 ~ 현재 : 국방과학연구소 선임연구원

관심 분야 : 멀티 모달 영상 정합

이 재 규 (Jaekyu Lee)

2006년 2월 : 한국과학기술원 응용수학과(이학사)

2008년 2월 : 한국과학기술원 수리과학과(이학석사)

2013년 2월 : 한국과학기술원 수리과학과(이학박사)

2013년 3월 ~ 현재 : 국방과학연구소 선임연구원

관심 분야 : 영상 추적, 푸리에 기반 신호처리