Korean Institute of Information Technology

Current Issue

The Journal of Korean Institute of Information Technology - Vol. 22 , No. 3

[ Article ]
The Journal of Korean Institute of Information Technology - Vol. 19, No. 4, pp. 75-82
Abbreviation: Journal of KIIT
ISSN: 1598-8619 (Print) 2093-7571 (Online)
Print publication date 30 Apr 2021
Received 15 Jan 2021 Revised 10 Mar 2021 Accepted 13 Mar 2021
DOI: https://doi.org/10.14801/jkiit.2021.19.4.75

다중센서 정보를 이용한 구름 클러터 환경의 대공표적 추적
선선구* ; 이의혁**
*국방과학 연구소 수석연구원(교신저자)
**국방과학 연구소 책임연구원

Aerial Target Tracking in a Cloud Clutter Environment using Multi-sensor Information
Sun-Gu Sun* ; Eui-Hyuk Lee**
Correspondence to : Sun-Gu Sun Agency for Defense Development, Yuseong P.O.Box 35, DaeJeon, 34186, Korea, Tel.: +82-42-821-2983, Email: sun988@add.re.kr


초록

불법적으로 운용되는 소형 무인기 혹은 드론을 탐지 및 추적하는 것은 공항 및 발전소와 같은 중요 시설물 보안에서 중요한 임무가 되고 있다. 구름이 있는 하늘 배경에서 드론을 추적하기 위해 단일 센서가 사용 되면 환경변화에 민감하여 표적을 추적하는 것이 매우 어렵다. 그러므로 이런 응용 분야에서는 다중 센서가 선택적으로 사용된다. 제안한 방법은 표적까지의 거리를 측정하기 위해 레이저 거리측정기를 사용하고, 표적을 추적하기 위해 중적외선 및 단파장 적외선 영상센서를 사용한다. 특히, 제안한 방법은 커널 상관 필터 알고리즘을 기반으로 하여, 거리측정 데이터, 중적외선 영상 및 단파장 적외선 영상을 사용하기 때문에 스케일 및 환경변화에 둔감하다. 실험을 통해서 실제 환경에서 획득된 거리정보 및 두 센서의 영상정보를 사용하여 제안한 방법의 유효성을 입증하였다. 또한, 제안한 방법은 구름 클러터의 가변 환경에서 표적을 안정적으로 추적할 수 있었다.

Abstract

Detecting and tracking of small unmanned aerial vehicles (UAVs) that are illegally operated have become a very important task in facility security like an airport or power plant. In order to track drones in the background of a cloudy sky, when one sensor used, it is difficult to track them due to environmental changes. Therefore, multi-sensors are selectively used in this application. In our system, a laser range finder is used to measure the distance to the target, and Mid Wave InfraRed (MWIR) and Short Wave InfraRed (SWIR) image sensors are used to track the target. In particular, the proposed method, which is based on the Kernelized Correlation Filter (KCF) algorithm, is insensitive to scale and environmental changes due to using distance measurement data, MWIR images, and SWIR images. The effectiveness of the proposed method was verified through the experiment while utilizing both the target distance and image data acquired in real environment. In addition, it was able to stably track the target even in a variable environment of cloud clutter.


Keywords: kernelized correlation filter, target drift, target tracking, unmanned aerial vehicle, mid wave infrared, short wave infrared

Ⅰ. 서 론

최근 소형 무인기(UAV, Unmanned Aerial Vehicle) 혹은 드론의 사용이 늘어날수록 고성능 카메라를 장착하고 불법적인 목적으로 중요시설을 위협하는 일이 점차 많아지고 있다. 따라서 공항, 발전소 및 국가 중요시설에서는 허가받지 않은 UAV를 탐지 및 추적하는 업무가 시설보안에 있어서 중요한 임무가 되고 있다. 이 불법적인 무인기를 자동으로 탐지 및 추적하여 격추시키는 시스템을 무인기 대응체계(Counter-UAV System)라고 한다. 무인기를 탐지하기 위해서는 주로 레이더가 사용되고 무인기를 추적하기 위해서는 영상센서가 사용된다.

영상센서 중에서 중적외선(MWIR, Mid Wave InfraRed)[1]-[3] 카메라는 주로 국방 분야의 감시정찰 체계에 많이 사용된다. 중적외선 카메라는 구름이 많은 하늘 배경의 드론 표적 영상에서는 표적과 배경의 대비가 매우 낮아서 표적의 탐지, 추적에 어려움이 있다. 하늘과 같이 구름 배경이 매우 가변적인 환경에서는 대공표적 추적을 위해서는 단파장 적외선(SWIR, Short Wave InfraRed)[4] 카메라를 함께 사용하여 추적 성능을 향상 시킬 수 있다. 그리고 표적까지의 거리 측정을 위해 레이저 거리측정기가 사용된다.

최근 커널 상관 필터(KCF, Kernelized Correlation Filter)[5][6]를 이용한 물체 추적이 많은 분야에서 응용되고 있으며, 좋은 성능을 보이고 있다. 그러나 KCF 추적기의 단점은 영상에서의 표적의 크기 변화, 즉, 스케일 변화에 적응할 수 없고, 추적 시간이 상대적으로 장시간인 경우, 표적의 가려짐은 표적의 드리프트를 발생시켜 추적에 실패할 수 있는 단점이 있다[7]. 이와 같은 이유로 인해 보안시스템 및 군사적 응용 분야에서는 KCF 추적기의 사용이 제한적이었다.

이 논문에서는 레이저 거리측정기, MWIR 영상, SWIR 영상을 이용하여 영상에서의 표적의 크기 변화 및 구름 클러터 환경변화에 둔감한 소형 무인기 추적 알고리즘을 제안한다. 이 논문의 특징은 두 가지이다. 첫 번째, KCF 추적기를 기반으로 하고 있으나, 각 영상 프레임에서 표적 거리에 기반을 둔 스케일 인자를 이용하여 스케일링 관련 KCF의 단점을 극복하였다. 두 번째, MWIR 영상만 사용했을 경우의 표적의 가려짐에 의한 문제를 해결하기 위해 MWIR 영상 및 SWIR 영상에서의 추적 결과를 상관계수 및 PSR(Peak-to-Sidelobe Ratio)[8]을 이용하여 측정치 융합을 하여 추적 결과를 출력한다.

그림 1의 (a)(b)는 각각 동일한 시간에 획득한 MWIR 및 SWIR 영상의 예이다. 무인기 표적의 모델 번호는 국내에서 제작한 ‘RemoEye-002’이다.


Fig. 1. 
Example of input images

그림 1의 (a)(b)에서 직관적으로 알 수 있는 것처럼 구름 속에서는 MWIR 영상에서 표적 추적이 어렵지만 SWIR 영상에서는 보다 용이할 것으로 예측된다.

그림 1 (a) MWIR 영상에서 기존의 KCF 알고리즘을 적용하여 표적을 추적할 경우 영상에서의 표적의 크기 변화에 적응하지 못하고, 구름 배경 영역에서 표적의 드리프트가 발생한다. 결국에는 표적추적을 실패한다.

그림 1 (a)에서 표적의 위치를 화살표로 표시하였다. 본 논문의 구성은 다음과 같다. 2장은 관련연구로 KCF 추적기[5]를 간단히 요약하여 기술한다. 3장에서는 제안하는 다중 센서 정보를 이용한 융합 추적 방법에 대해 자세하게 기술한다. 4장에서는 실제 환경에서 획득한 표적 거리, MWIR 및 SWIR 영상정보를 활용하여 제안한 방법의 효율성을 입증한다. 마지막으로 5장에서는 결론에 대해 기술하고 연구결과를 무인기 대응체계에 적용하는 방안에 대해 기술한다.


Ⅱ. 관련 연구
2.1 KCF 알고리즘 요약

선형 리지 리그레션(Ridge regression)의 목적은 식 (1)과 같이 샘플 입력 xi와 출력 yi와의 제곱 평균 오차(MSE, Mean Squared Error)를 최소화시키는 함수 f(z) = WTz를 찾는 것이다[5]. 여기서 W는 리그레션의 해를 나타내고, 위첨자 T는 행렬에 대한 전치 연산을 나타낸다.

minWifxi-yi2+λW2(1) 

여기서 λ는 정규화 파라메타이다. 식 (1)은 유일 해를 갖고 식 (2)와 같이 표현된다.

W=XTX+λI-1XTy(2) 

여기서 X는 한 개의 샘플 xi가 한 개의 행으로 표현되는 입력 데이터 행렬이다. yyi로 이루어진 출력 데이터 행렬이다. I는 단위행렬 이다. 추적 분야에 사용될 때, 리그레션 함수는 한 입력 샘플 x에 대한 순환 쉬프트(Cyclic Shift)된 모든 버전을 학습한다. 즉 X = C(x) 이고, 순환 행렬 C(x)는 x의 순환 쉬프트 버전으로 구성된 nn행렬이다. 이 행렬은 이산 푸리에 변환(DFT, Discrete Fourier Transform) 연산을 수행하면 x에 무관하게 대각 행렬로 되는 유용한 특성을 가지고 있다. 데이터 행렬 X는 상수 행렬 F를 이용하여 식 (3)과 같이 표현할 수 있다.

X=Fdiagx̑FH(3) 

여기서 F는 상수 행렬로서 DFT 행렬로 알려져 있다. 식 (3)에서 윗 첨자 H는 Hermitian transpose를 나타내고 x̑x의 주파수 영역 표현이다. 위 특성들을 사용하면 식 (2)의 리지 리그레션의 해는 식 (4)와 같이 표현될 수 있다.

W̑=x̑*y̑x̑*x̑+λ(4) 

여기서 ⊙는 성분별 곱셈(Element-wise multiplication) 이고, *는 복소 켤레쌍(Complex conjugate)이다.

커널 트릭을 사용하면 함수 f(z)는 식 (5)와 같이 리그레션 가중치 α와 다차원 특징 공간의 선형 결합으로 표현할 수 있다. α의 이산 푸리에 변환된 표현식은 식 (6)과 같다.

f̑z=k̑xzα̑(5) 
α̑=y̑k̑xx+λ(6) 

여기서 k̑xx는 커널 함수의 이산 푸리에 변환이다. kxx는 커널 행렬 K = C(kxx)의 첫 번째 행이다. 표적 추적 과정에서 리그레션 함수는 여러 후보 영상패치(Image patch)에 대해 계산된다. 이 계산 과정을 나타내는 수식이 식 (5)이다. 이것은 표적의 위치를 탐지하는 과정이다. 가우시안 커널 함수에 대해서 kxz식 (7)과 같이 계산될 수 있다.

kxz=exp-1σ2x2+z2-2F-1x̑z̑(7) 

여기서 F-1은 역 푸리에 변환을 의미한다. 리그레션 가중치 α̑와 모델링된 영상패치 x̑식 (8)(9)를 이용하여 선형 보간하는 방법으로 갱신된다.

α̑=1-γ×α̑+γ×α̑c(8) 
x̑=1-γ×x̑+γ×x̑c(9) 

여기서 γ는 보간 인자이고, α̑cx̑c는 각각 현재 영상 프레임에서 갱신된 리그레션 가중치 및 현재 프레임 특징 벡터의 주파수 영역 표현이다.


Ⅲ. 다중정보 융합에 의한 대공표적 추적
3.1 시스템 구성

제안한 추적 방법이 적용될 수 있는 시스템 구성은 많은 감시정찰 시스템과 같이 레이저 거리측정기 및 다수의 영상센서를 장착하고 있는 시스템이다. 일반적인 전자광학 추적 장치(Electro-Optical Tracking System: EOTS)는 거리측정기, 가시광 영상센서 및 MWIR 영상센서를 많이 사용한다. 제안한 방법에서는 구름 클러터 처리를 위해 가시광 대신에 SWIR 영상센서를 사용하고 있다. 레이저 거리 측정기, MWIR 및 SWIR 영상이 시간적으로 동기화되어 있는 경우에 적용 가능하다. 실제 시스템에서 MWIR 센서와 SWIR 센서는 공간적으로 떨어져 장착이 되어있으나, 두 센서의 시계(Field Of View: FOV)가 같고, 센서 간 거리가 알려져 있으면 동기화된 두 입력 영상에서 실제 표적의 위치는 계산 가능한 픽셀 거리만큼 떨어져있다.

그림 2는 제안하는 다중 센서 정보융합에 의한 대공표적 추적 방법의 블록도이다. 그림 2에서 알 수 있는 바와 같이 표적 거리를 이용하여 스케일 인자를 계산하고 입력되는 두 영상에 대해 특징 추출, 스케일 인자에 기반한 특징 행렬 인터폴레이션, 표적 탐지 과정을 병렬적으로 수행한다. 그런 후 각 영상에서 출력되는 로컬 탐지 결과에 대해 측정치 융합을 수행하고, 최종 추적점 및 스케일 인자를 이용하여 모델을 갱신하는 과정으로 구성되어있다.


Fig. 2. 
Overall block diagram of the proposed fusion tracking method

3.2 스케일 인자 정의 및 영상패치 크기 계산

기존 KCF 알고리즘의 가장 큰 단점은 모든 추적과정에서 고정 크기의 영상패치를 사용하여 영상에서의 표적의 스케일 변화에 적응하지 못하는 것이다. 이 문제를 해결하기 위해 제안한 방법에서는 표적 거리 정보를 이용하여 스케일 인자를 구하고 이것을 바탕으로 영상패치를 보간하여 스케일 변화를 적용한 KCF 알고리즘을 수행한다. 첫 번째 입력 영상에서 레이저 거리측정기로 측정된 표적 거리가 R1이다. 첫 번째 프레임의 스케일 값 1을 중심으로 스케일 풀 S식 (10)과 같이 정의한다.

S=s1,s2,...,1,...,sn-1,sn,i=1,...,n(10) 

프레임 k에서 표적의 스케일 변화 처리를 위한 스케일 인자 sk식 (11)로 계산한다.

sk=arg minsiR1Rk-si,k=1,...,c(11) 

여기서 skR1Rk과 가장 가까운 si를 의미한다. Rkk번째 프레임에서의 표적 거리를 의미한다. 매 프레임에서의 영상패치 및 모델의 크기 Ak는 첫 번째 프레임에서의 영상패치 크기 A1sk를 곱해서 식 (12)와 같이 계산한다.

Ak=si×A1(12) 
3.3 상관 필터에 의한 표적 탐지

영상패치들에 대해 Sobel[9] 연산자를 사용하여 에지의 크기를 구한다. 기존의 KCF 알고리즘에서는 HOG(Histogram of Oriented Gradients)[10] 특징이 사용되었다. 그러나 제안 방법의 응용 분야가 거리가 먼 표적에 대한 적외선 영상이므로 HOG 특징 보다 에지 크기가 더 안정적인 성능을 갖는다. 따라서 에지 영상에 대한 패치가 특징 행렬로 사용된다. 영상에서 표적의 위치를 찾는 과정은 식 (5) ~ (7)을 이용하여 주파수 영역에서 상관 필터 응답을 구하고 이를 역 이산 푸리에 변환(Inverse Discrete Fourier Transform: IDFT)을 수행하면 공간 영역의 상관 필터 응답이다. MWIR 영상에서 최대 응답 값을 Rm이라 하고 이 픽셀의 위치를 Pm(xm,ym)이라고 한다. 이 픽셀 위치가 MWIR 영상에서 추정된 표적의 위치이다. 동일한 방법으로 SWIR 영상에서 최대 응답 값을 Rs라고 하고 이 픽셀의 위치를 Ps(xs,ys)이라고 한다. 이 픽셀 위치가 SWIR 영상에서 추정된 표적의 위치이다.

3.4 측정치 융합 추적

개별 영상에서의 탐지된 표적의 위치 Pm(xm,ym) 와 Ps(xs,ys)에서 PSR[8]을 계산하고 이것을 각각 PSRm, PSRs라고 한다. 두 개의 PSR이 모두 특정 임계값 t1보다 크면 식 (13)을 이용하여 융합 추적을 수행한다. P(x,y)가 측정치 융합에 의한 최종 추적점이며, 추적점의 x, y 방향의 픽셀 위치는 식 (13)으로 계산한다.

x=lRlxllRl,y=lRlyllRll=m,s(13) 

그러나 한 개의 PSR은 특정 임계값 t1보다 크고, 다른 한 PSR은 t1보다 작으면, 큰 PSR을 갖는 영상에서의 표적 탐지 결과를 융합 추적의 결과로 출력한다.


Ⅳ. 실험 및 결과

실험에 사용한 거리정보, MWIR 영상 및 SWIR 영상은 전자광학 추적 장치에 장착되어 있어서 시간적으로 동기화되어 있다. 첫 번째 프레임에서는 표적을 에워싼 사각형을 표시해준다. 이것은 추적을 시작하기 위한 사전지식이다. KCF 필터에 사용된 특징은 에지의 세기이며 Sobel 연산자를 이용하여 구한다. 표 1은 실험에서 사용한 KCF 필터 파라메타를 설명한 것이다.

Table 1. 
Parameters of KCF filter used in experiments
Parameters Type or values
Kernel type Gaussian
Feature bandwidth σ 0.2
interpolation factor γ 0.075
Spatial bandwidth s 0.1
Regularization λ 10-4

제안한 표적 추적 방법은 실제 클러터 환경에서 획득한 영상 3개 세트를 이용하여 실험하였다. 영상 세트 1은 MWIR 및 SWIR 영상이 각 500 프레임으로 구성되어 있으며 표적과 구름사이의 대비가 중간 정도의 수준으로 영상에서 표적의 위치를 사람은 구분할 수 있는 수준이다. 영상 세트 2는 350 프레임이고, 영상 세트 3은 1300 프레임이다.

그림 3(a)는 영상 세트 3에서 750번째 프레임의 MWIR 입력 영상이며, (b)는 750번째 프레임의 SWIR 입력 영상에 융합 추적 결과를 나타낸 것이다. (c)는 영상 세트 3에서 1000번째 프레임의 MWIR 입력 영상이며, (d)는 1000번째 프레임의 SWIR 입력 영상에 융합 추적 결과를 나타낸 것이다. 그림 3(c)의 경우처럼 때때로 MWIR 영상에서 표적이 가려진다.


Fig. 3. 
Tracking results for image set 3

영상 세트 2와 3에서는 MWIR 영상에서 표적과 구름의 대비가 낮아 그림 3의 (c)처럼 약 50% 정도의 영상 프레임에서 사람이 표적을 구분할 수 없는 수준이다. 그러나 SWIR 영상에서는 두꺼운 구름이 있을지라도 상대적으로 표적과 구름의 대비가 양호하다.

따라서 두 영상의 추적 정보를 융합하면 안정적인 추적 결과를 얻을 수 있다. 실제 표적은 고정익 무인기이며 표적거리는 1.5 ~ 3.5Km 이다. 두 영상 센서의 장착 위치가 공간적으로 떨어져 있을지라도 시계가 동일하고, 거리에 따라 두 센서의 시차(Parallax)를 보정하면 두 영상에서의 표적 위치는 일치한다. 영상의 크기는 400✕400 픽셀이다. 추적 성능을 객관적으로 평가하기 위해 영상에서 표적의 실제 위치를 에워싼 사각형으로 표시하고 알고리즘에 의한 추적 결과와 비교한다. 영상 세트 1에서는 모든 영상에 대해 실제 표적 위치(Ground truth position)를 저장하고 있으며, 영상 세트 2와 3에서는 마지막 50 개의 프레임에 대해 실제 표적 위치를 저장하고 있다.

추적 알고리즘의 성능지표로서 많이 사용되는 CLE(Center Location Error)[7]와 VOR(Video Overlap Ratio)[7]를 사용하여 기존의 KCF 추적기와 비교하였다. CLE는 영상에서 표적의 ground truth 중심과 알고리즘에 의해 추정된 중심 간의 거리로 정의한다. 따라서 CLE가 작을수록 정확한 추적이 가능하다. 한편, VOR은 식 (14)와 같이 정의한다.

VOR=areaBABGareaBABG(14) 

여기서 BA는 알고리즘에 의해 생성된 표적을 에워싼 사각형, BG는 ground truth 위치에서 표적을 에워싼 사각형 이다. VOR은 수치가 1에 가까울수록 정확한 추적이 가능한 것이다.

그림 4는 영상 세트 1에 대한 각 영상 프레임별 CLE를 그래프로 보인 것이다. 그림 4 그래프에서 빨간색 실선은 제안한 방법의 추적 결과, 파란색은 MWIR 영상에 KCF 알고리즘을 적용한 추적 결과, 검은색은 SWIR 영상에 KCF 알고리즘을 적용한 추적 결과이다. 그림 4에서 알 수 있는 것은 각 MWIR 및 SWIR 영상에 KCF 알고리즘을 적용할 경우 추적 오차가 누적되는 것을 알 수 있다. 그러나 제안한 융합 추적 방법은 안정적인 추적 결과를 얻을 수 있었다.


Fig. 4. 
CLE per frame in image set 1

표 2는 3개의 영상 세트에 대해 제안한 방법과 기존 KCF 알고리즘에 의한 추적 결과를 CLE를 사용하여 평가한 것이고, 표 3은 두 방법을 VOR을 이용하여 평가한 것이다. 표 3에서 영상 2, 3의 MWIR 영상에서의 VOR이 0인 이유는 표적이 보이지 않아 추적에 실패한 것이다. 그러나 두 영상을 모두 이용하는 제안방법에서는 MWIR 영상에 표적이 안보일지라도 SWIR 영상에서의 추적 결과를 융합하여 안정된 추적 결과를 얻을 수 있었다.

Table 2. 
Comparison of tracking result using average CLE
Data Average CLE [Pixels]
Methods Set 1 Set 2 Set 3
Proposed fusion tracking 2.2 1.5 2.8
KCF tracking for SWIR images 10.4 1.3 4.1
KCF tracking for MWIR images 5.4 223.8 240.5

Table 3. 
Comparison of tracking result using average VOR
Data Average VOR
Methods Set 1 Set 2 Set 3
Proposed fusion tracking 0.65 0.83 0.64
KCF tracking for SWIR images 0.39 0.73 0.44
KCF tracking for MWIR images 0.49 0 0


Ⅴ. 결 론

이 논문에서는 표적거리, MWIR 영상 및 SWIR 영상을 사용하여 구름 클러터 환경에서 안정적으로 표적을 추적하기 위한 융합 추적 방법을 제안하였다. 거리정보는 기존의 KCF 알고리즘이 스케일 변화에 적응하지 못하는 단점을 해결하였다. 또한 두 가지 영상에서의 탐지 정보를 융합하여 추적점을 결정함으로써 구름 클러터 변화에 잘 적응하여 안정된 추적 결과를 얻을 수 있다. 실제 운용환경에서 획득한 3 개의 영상 세트에 제안한 방법과 기존의 KCF 알고리즘을 적용하여 CLE 및 VOR을 비교함으로써 제안 방법의 유효성을 확인하였다. 이 추적기는 실제 무인기 대응체계의 추적 및 조준 시스템에 적용이 가능하다.


References
1. S. H. Kim, S. G. Sun, and K. T. Kim, "Highly efficient supersonic small infrared target detection using temporal contrast filter", Electronics Letters, Vol. 50, No. 2, pp. 81–83, Jan. 2014.
2. S. G. Sun and B. L. Cho, "Small target detection in infrared images using particle filter track-before-detection", Journal of KIIT, Vol. 14, No. 9, pp. 37-43, Sep. 2016.
3. S. M. Yun, S. H. Kim, and H. M. Lee, "Size-varying infrared UAV tracking using modified mean shift based-Kalman filter", Proc. 2018 Kimst Conf., Jeju, Korea, pp. 577-578, Jun. 2018.
4. U. Adomeit and J. Krieg, "Shortwave infrared for night vision applications–illumination levels and sensor performance", Proc. SPIE Conf. on Remote Sens., Toulouse, France, pp. 964104-1~964104-12, Oct. 2015.
5. J. F. Henriques, R. Caseiro, P. Martins, and J. Batista, "High-speed tracking with kernelized correlation filters", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 37, No. 3, pp. 583-596, Mar. 2015.
6. Y. G. Jung, S. G. Sun, E. H. Lee, Y. K Joo, T. Kim, and Y. C. Lee, "Small/fast moving target tracking base on correlation filter in clutter environment", Journal of the Institute of Internet, Broadcasting and Communication (JIIBC), Vol. 19, No. 4, pp. 93-98, Aug. 2019.
7. Y. Li and J. Zhu, "A scale adaptive kernel correlation filter tracker with feature integration", Proc. European Conf. on Comput. Vis., Zurich, Switzerland, pp. 254-265, Sep. 2014.
8. D. S. Bolme, J. R. Beveridge, B. A. Draper, and Y. M. Lui, "Visual object tracking using adaptive correlation filters", Proc. IEEE Computer Society Conf. on Comput. Vis. Patt. Recog., San Francisco, CA, USA, pp. 2544-2550, Jun. 2010.
9. A. K. Jain, "Fundamentals of digital image processing", Prentice Hall, 1989.
10. N. Dalal and B. Triggs, "Histograms of oriented gradients for human detection", Proc. IEEE Computer Society Conf. on Comput. Vis. Patt. Recog., San Diego, CA, USA, pp. 1-8, Jun. 2005.

저자소개
선 선 구 (Sun-Gu Sun)

1987년 2월 : 한양대학교 전자공학과(공학사)

1989년 2월 : 한양대학교 전자공학과(공학석사)

2003년 2월 : 한국과학기술원 전기 및 전자공학과(공학박사)

1989년 2월 ~ 현재 : 국방과학연구소 수석연구원

관심분야 : 컴퓨터비젼 및 신호처리

이 의 혁 (Eui-Hyuk Lee)

1996년 2월 : 포항공대 전자공학과(공학사)

1998년 2월 : 포항공대 전자공학과(공학석사)

2017년 2월 : 한양대학교 전자시스템공핚과(공학박사)

1998년 2월 ~ 현재 : 국방과학연구소 책임연구원

관심분야 : 신호처리 및 다수표적추적