Korean Institute of Information Technology

Home

The Journal of Korean Institute of Information Technology - Vol. 21 , No. 10

[ Article ]
The Journal of Korean Institute of Information Technology - Vol. 21, No. 10, pp. 59-68
Abbreviation: Journal of KIIT
ISSN: 1598-8619 (Print) 2093-7571 (Online)
Print publication date 31 Oct 2023
Received 31 Aug 2023 Revised 22 Sep 2023 Accepted 25 Sep 2023
DOI: https://doi.org/10.14801/jkiit.2023.21.10.59

시간 누적 및 CNN을 이용한 3차원 공간에서의 레이다 표적 궤적 탐지 방법
조원민* ; 곽노준**
*국방과학연구소 레이다 연구원(교신저자)
**서울대학교 융합과학기술대학원 교수

A Radar Target Trajectory Detection Algorithm in 3D Space using Time Accumulation and CNN
Wonmin Cho* ; Nojun Kwak**
Correspondence to : Wonmin Cho Agency for Defense Development Tel.: +82-42-821-0501, Email: min97@snu.ac.kr


초록

레이다로 표적을 탐지할 때 많은 경우 CFAR(Constant False Alarm Rate) 알고리즘을 사용한다. CFAR는 노이즈 레벨에 상관없이 오경보율을 일정하게 유지할 수 있으나, 한 순간의 레이다 빔의 데이터만을 사용하기 때문에 허위 표적과 실제 표적의 구분이 어렵다. 많은 클러터가 존재하는 상황에서 시간에 따라 표적이 실제로 움직이는 궤적을 탐지하기 위해서, 본 논문에서는 CFAR에서 탐지된 플롯 데이터를 통해 시간에 따라 형성된 표적의 궤적을 추출하는 방법을 제시한다. CNN에 기반한 2차원 표적의 학습 데이터 생성 방법 및 학습 방법을 제시하였다. 그리고 더 구체적으로, 3개의 2차원 표적 정보 추출 방법을 연관하여 3차원 공간에서 표적 정보를 추출하는 방법을 제시하였다. 본 논문에서 제시한 알고리즘을 실제 레이다 데이터를 통해서 검증하였고, 극심한 클러터 상황에서도 잘 동작함을 확인하였다.

Abstract

When detecting targets with radar, the CFAR(Constant False Alarm Rate) algorithm is used in many cases. The CFAR algoritm can keep the false alarm rate constant regardless of the noise level, but it is difficult to distinguish between a false target and an actual target because it uses only one radar beam data of a moment. In order to detect the actual trajectory of a target over time in the presence of many clutters, this paper presents a method to extract the trajectory of a target formed over time from the plot data detected by the CFAR algorithm. CNN-based methods for generating training data and learning 2D targets are presented. More specifically, we present a method of extracting the target information from a three-dimensional space by associating three two-dimensional target-information-extraction methods. The algorithm presented in this paper was verified through actual radar data, and it is confirmed that this algorithm works well in the heavy clutter situation.


Keywords: measurement data, time accumulation, CNN, target trajectory, clutter, CFAR

Ⅰ. 서 론

레이다는 표적의 위치를 탐지하기 위한 전자파를 이용한 센서로서, 안테나로부터 수신된 레이다 신호를 처리하고, 탐지된 표적들의 정보로부터 실제 표적 궤적으로 존재하는 대상 표적을 탐지하는 과정을 거친다.

일반적으로 레이다 수신 신호인 거리-도플러 맵(Range-Doppler Map : R-D Map)에서 표적의 존재를 탐지하는 경우, 잡음에 의한 허위 표적 탐지의 비율을 일정하게 유지하기 위해서 CFAR(Constant False Alarm Rate)와 같은 알고리즘을 사용한다. CFAR는 표적의 거리-도플러 방향의 주변 신호의 크기를 통해 대상 셀의 크기가 충분히 큰 값인지를 판별하므로 성능과 간단함에 의해서 많은 경우 레이다에서의 표적 탐지 방법으로 사용되고 있다[1][2]. 이처럼 CFAR를 통해 탐지된 표적의 정보는 일반적으로 히트(Hit)로 불리며, 모호성 제거 및 추가 데이터 처리를 통해 플롯(Plot)과 같은 표적의 위치 데이터로 변환된다.

하지만 CFAR는 표적의 존재를 확인하기 위해서 하나의 R-D Map의 정보만을 사용한다. 이 정보는 한 번에 수신된 레이다의 데이터만을 사용하기 때문에 표적의 기동의 정보를 사용하지 않는다. 따라서 지형이나 안개 등의 외부 볼륨 표적에 의한 클러터나 오경보에 의한 허위 표적 정보는 제거되지 않는 경우가 많다. 표적의 추적은 CFAR의 결과 생성된 모든 히트 또는 플롯을 연관지어 사용하기 때문에, 허위 표적이 많이 발생한다면, 추적 단계에서 많은 연산량을 소모하게 된다.

실제 표적을 탐지하기 위해서 뉴럴 네트워크를 사용하는 방법이 많이 연구되었다. 가장 영상과 비슷한 레이다인 SAR(Synthetic Aperture Radar) 분야에서 영상 인지에 좋은 성능을 발휘하는 뉴럴 네트워크를 이용한 표적 탐지 방법이 많이 제시되었다[3]-[7]. 이 방법들은 입력 데이터가 일반 레이다보다 고해상도인 SAR 레이다를 사용하며, 표적의 형태를 통해 표적의 탐지와 종류 판별을 수행하는 방법이므로 일반적으로 사용하는 데 한계가 존재한다. 이와 비슷하게 마이크로 도플러를 사용한 방법[8]-[10] 또한 연구되었지만, 마이크로 도플러의 사용을 위해서는 광대역의 주파수가 사용되어야 한다. 이와 별도로 Yan은 거리-시간 축에서 그림의 형태로 표현된 표적의 정보를 CNN(Convolutional Neural Network)을 사용해서 탐지하는 방법을 제시하였다[11].

지금까지 언급된 방법들은 CFAR 과정이나 CFAR 이전의 R-D Map 데이터를 기반으로 표적의 영상 정보를 사용하는 방법을 사용하였다. 이 과정은 많은 데이터를 사용하며, 한 순간의 정보만을 사용하기 때문에 탐지된 표적의 시간에 따른 기동 정보는 사용되지 않는다. 따라서 CFAR 이후의 표적 탐지 데이터(히트, 플롯 등)를 시간에 따라 누적한다면 실제 궤적을 가진 표적을 탐지할 수 있다.

이 논문에서는 플롯과 같은 레이다 탐지 데이터의 시간 누적 방법을 통해 궤적이 존재하는 2차원 표적 정보만을 탐지하는 방법을 소개하고 입력 데이터를 생성하는 방법을 제시한다. 또한 3개의 2차원 시간 누적 방법을 사용하여 3차원 표적 궤적 정보를 탐지하는 방법을 제시한다. 실제 레이다 데이터를 통해서 제시된 방법이 잘 동작함을 확인하고, 클러터 또는 오경보가 다수 존재하는 과정에서도 표적의 궤적만을 추적함을 보인다.


Ⅱ. 표적 데이터의 시간 누적 방법
2.1 플롯 정보와 시간 데이터의 사용

CFAR를 통해서 획득된 레이다 표적 데이터는 일반적으로 셀의 형태인 히트이다. 하나의 표적이 동시에 여러 셀에 걸쳐서 나올 수 있기 때문에 연속된 셀을 하나로 합쳐서 표적의 위치 데이터인 플롯을 형성한다. 플롯은 일반적으로 R-D Map을 통합하고, 연속된 이웃 수신 빔의 데이터까지 합쳐서 생성되기 때문에 레이다의 주파수 값이 제거된 공간상의 한 점으로 표현된다. 따라서 플롯은 일반적으로 점구름(Point cloud)과 유사한 형태로 표현된다.

그러나 점구름과 플롯 사이에는 몇몇 차이가 존재한다. 점구름은 일반적으로 많은 수의 점들을 통해 표적의 정보를 형성한다. 따라서 하나의 대상은 무수히 많은 점구름으로 표현되며, 이 분포를 통해 대상의 형태와 상태 등을 파악할 수 있다.

인공지능에서 점구름이 많이 사용되는 이유가 여기에 있다. 반면에 플롯은 일반적으로 대상 표적을 하나의 점으로 표현하며, 일반적인 레이다에서는 점으로 표현된 표적 외의 주변의 다른 환경은 제거해야 할 대상으로 생각한다.

따라서 플롯 단계에서 인공지능의 사용은 제한적이며, 일반적으로는 RNN(Recurrent Neural Network) 또는 LSTM(Long Short Term Memory) 등의 시계열 알고리즘을 통한 추적에만 플롯이 사용된다.

여기서 플롯을 이용하기 위한 발상의 전환을 해 볼 수 있다. 레이다를 운용할 때 운용자는 레이다 화면의 오경보 플롯들 사이에서 시간에 걸쳐 움직이는 표적의 탐지가 가능하다. 이를 적용하기 위해서 CFAR 이후 생성된 표적의 정보를 시간으로 누적하는 방법을 생각할 수 있다. IID(Independent Identically Distributed) 환경에서, 오경보 또는 볼륨 클러터의 값들은 랜덤한 위치에 생성되지만 표적의 궤적은 서로 연관되어 생성된다. 이처럼 2차원 영상을 시간으로 누적한 3차원 텐서(표적 평면 × 시간축)를 입력으로 하면, 3차원 CNN을 이용해서 표적궤적의 탐지 또는 이를 이용한 추적이 가능하다.

2.2 입력 데이터 및 CNN 구조

본 논문에서 표적의 정보는 2차원×시간만을 사용하기 때문에 그림 1처럼 표적 정보를 생성한다. 플롯 데이터를 영상과 같은 형태로 만들기 위해 식 (1)과 같은 픽셀화하는 과정이 필요하다.

POScell =fixPosTarget / CellSize (1) 

Fig. 1. 
Input map of 2D target

Poscell은 셀의 위치, PosTarget은 원래 표적의 위치, CellSize는 해당 축에서의 셀의 크기를 뜻하며 fix는 정수화를 말한다.

그림 1에서 표적이 존재하는 셀은 1로 표시하고 존재하지 않는 경우는 0으로 표시한다. 입력 맵은 xy 평면과 N개의 스캔이 누적된 3차원의 형태가 된다. 그림 1과 같은 형태로 학습을 위한 training set을 생성하는 방법을 그림 2에 표현하였다.


Fig. 2. 
Generation of the training data

- Random target status decision : 표적의 3차원 시작 위치 및 속도, 방향을 결정한다.

- N scan target points generation : N스캔에 걸친 표적의 3차원 위치를 표현한다.

- Random measurement error generation : 3차원의 측정 오차를 생성한다.

- Random memory track scan decision : N 스캔 중 몇 회에 걸쳐서 어느 스캔의 데이터가 탐지가 되지 않았는지(memory track인지) 결정한다.

- Target data : N 스캔에 걸친 표적 정보

- Random clutter data generation : 랜덤하게 N 스캔에 걸친 클러터 데이터를 형성한다.

- 3-D training data : 생성된 표적의 텐서 정보를 식 (1)처럼 셀로 표현한다.

- (R-Az/R-El/Az-El) Training data : 3개의 평면 데이터로 분리한다.

그림 1의 입력 데이터는 평면의 표적만을 탐지할 수 있으므로, 3차원 데이터를 학습시키기 위해서는 3개의 CNN이 필요하다. 그림 3과 같이 레이다 수신 신호 도메인에 따라 거리-방위-고각 (Range–azimuth –elevation)의 3개의 축을 설정하고, 3개의 binary detector를 구성하여 이를 통해서 표적을 탐지한다. 각각의 binary detector에서는 점 표적의 탐지를 위해 pooling layer를 제거하였다.


Fig. 3. 
Three CNNs and 3-D target detection algorithm

- Activation map : CNN의 마지막 reLU layer의 activation map 값을 통해 표적의 위치를 탐지한다. 그림 4에서 볼 수 있듯이 표적의 위치에는 peak가 생성되고, 이 값을 통해 표적의 위치를 추정한다.


Fig. 4. 
Target position in Activation map

- Combination : 3개의 binary detector에서 모두 exist로 탐지된 경우만 표적으로 판단한다.

- Position calculation : Combination 결과 표적이 존재하는 경우, 세 평면의 activation map에서 추출된 표적의 정보를 통해 거리 ϵ셀 이내로 위치가 수렴한 표적 위치를 3차원 표적 위치로 결정한다.

3차원 표적 위치의 값은 셀로 나타나며, CNN의 결과 표적이 여러 개 존재하는 경우 모든 연관을 수행해야 한다.

- Target detection : Combination의 결과 표적이 존재하고, position calculation의 결과 표적 위치가 수렴하면, 표적이 탐지되었다고 보고하고 수렴 위치를 보고한다.

2.3 셀 크기 설정 방법

플롯 데이터를 셀로 설정하는 과정은 매우 중요하다. 본 논문에서 제시된 방법은 스캔 간의 표적 정보의 연관을 고려하기 때문에, 스캔 시간 사이에 표적이 너무 빠르게 움직여서 여러 셀을 이동하는 경우 성능의 저하가 일어날 수 있다. 또한 레이다 의 탐지 정확도 또한 고려되어야 한다. 레이다의 탐지 도메인에 맞춰서 셀 크기를 거리 셀과 각도 셀로 나누어 설정한다.

CellSizeRVmaxRNT+2σRk(2) 
 CellSizeθVmaxθNT+2σθk(3) 

각각의 식에서 VmaxRVmaxθ는 각각의 축 방향에서의 추정되는 표적의 속도 최대값을 말한다. 스캔 간격 시간 T sec로 움직인다고 가정할 때 측정 정확도 σRσθ에 대해 N스캔 동안 총 k셀 이내로 이동할 경우로 셀 크기를 설정하여야 한다. k가 작아지면 스캔 간 연관이 잘 되기 때문에 CNN에서 표적을 잘 탐지할 수 있지만, 셀 크기가 커지기 때문에 탐지된 표적의 위치 정확도는 떨어지게 된다. 반대로 k가 커지는 경우 셀 크기는 작아지므로 탐지 결과의 위치 정확도는 올라가지만, 스캔 간 여러 셀의 이동이 가능하므로 탐지율이 떨어지게 되고, 클러터 개수의 영향을 많이 받게 된다. 따라서 k 값을 어떻게 설정하는 지는 중요한 요인이 된다.

방위각 방향의 셀 크기를 설정하기 위한 최대 방위각속도 Vmaxθ는 거리에 따라 달라진다. 대상 표적의 최대 속도 V에 대하여 표적까지 거리 R에 의해 Vmaxθ의 값은 달라진다. 따라서 실제 적용 과정에서는 거리에 따라 서로 다르게 셀 크기를 설정하고 학습시킬 필요가 있다.


Ⅲ. 학습 및 데이터 검증
3.1 입력 데이터 생성 및 학습 방법

Exist Set Case와 Nonexist Set Case로 나누어 학습 표적을 생성한다. 표적이 존재하는 경우 스캔당 M개의 클러터와 궤적의 정보를 생성하며, 표적이 존재하지 않는 경우는 스캔당 M+1개의 클러터를 생성한다. 이는 플롯의 개수가 학습에 영향을 주지 않기 위해서 매 스캔마다 동일한 수의 플롯 데이터가 필요하기 때문이다. Exist와 Nonexist 경우를 모두 학습시킴으로써 CNN은 표적의 존재 여부를 판단할 수 있다.

학습을 위해서 Exist set과 Nonexist set을 각각 4000개 생성하였다. 7 스캔을 누적하는 방법을 채택하였으며, 각각의 경우 스캔마다 0~10개의 랜덤 클러터 데이터가 추가되었다. 학습 과정에서 SDGM (Stochastic Discontinuous Galerkin Methods)를 solver로 사용하였고, 초기 학습 비율은 0.01로 설정하였다. L2Regularization 값은 0.0001로 설정하였고, GradientThresholdMethod는 l2norm으로 설정하였다. MaxEpoch 값과 MiniBatchSize는 각각 30, 128로 설정하였다. 셀 크기는 [거리 방위각 고각]에 대해서 각각 [100m 0.05°0.1°]로 설정하였고, 각 축 당 [26 61 21]개의 셀로 맵을 형성하였다.

3.2 생성 데이터를 통한 학습 및 검증 결과

동일한 방법으로 검증을 위한 validation data set Exist/Nonexist 2000개씩을 추가로 생성하였다. 이 데이터들을 통해 검증한 결과, 각각의 CNN의 ROC Curve와 검증 정확도(Accuracy)는 다음과 같다.


Fig. 5. 
ROC curve of each CNN

표 1부터 4에서 볼 수 있듯이 표적이 존재하는 경우와 존재하지 않는 경우 모두 96% 이상의 탐지 정확도를 보였다. 이는 표적의 존재 판단을 위한 binary detector가 잘 동작했다는 것을 뜻한다.

Table 1. 
Accuracy, F1 score and false negative rate
R-Az Az-El R-El
Accuracy 0.9832 0.9688 0.9762
F1 Score 0.9832 0.9684 0.9762
FNR 0.021 0.042 0.025

Table 2. 
Confusion matrix in R-Az domain
R-Az Actual value
Exist Nonexist
Predicted
value
Exist 1958 25
Nonexist 42 1975

Table 3. 
Confusion matrix in Az-El domain
Az-El Actual value
Exist Nonexist
Predicted
value
Exist 1916 41
Nonexist 84 1959

Table 4. 
Confusion matrix in R-El domain
R-El Actual value
Exist Nonexist
Predicted
value
Exist 1950 45
Nonexist 50 1955

표적이 존재하는 2000개의 검증용 데이터에서 각각의 실제 위치(Ground truth)는 표적의 이동 속도를 고려하여 매 스캔 탐지된 위치의 평균 셀 위치로 설정하였다. 실제 위치와 추정 위치의 차이는 다음과 같은 식으로 계산하였다.

disterr=errR2+errAz2+errEl2(4) 

그림 6에서, 5셀 이상의 거리를 위치 오탐지 경우로 생각할 때, 38개가 오탐지되어 탐지 정확도는 98.1%가 되었다. 정확히 탐지된 1942개의 오차 평균은 1.24 셀로, 평균적으로 각 CNN 당 0.5셀 이내의 오차로 탐지가 되었다는 것을 뜻한다.


Fig. 6. 
Distance between ground truth and estimated position (cell)

3.3 실제 3차원 데이터를 통한 위치 추정 결과

실제 획득한 레이다 데이터를 통해 제시한 알고리즘을 검증하였다. 획득 레이다 데이터는 다음과 같다.

그림 7에서 표적은 30km 부근에서 레이다를 향해 80m/s의 속도로 접근하고 있다. 0.35초 간격으로 표적을 탐지했고, 총 381스캔의 데이터를 획득하였다. 해당 데이터를 영상화하기 위해서 각 축에 대하여 다음과 같이 셀로 변형하였다. 그림 8(a)의 표적의 위치를 나타내는 플롯 데이터는 그림 8(b)에서 볼 수 있듯이 정규화된 셀의 위치로 표현된다. [거리 방위각 고각]의 각 셀의 크기를 [100m 0.05°0.1°]로 설정하여 3차원 표적 정보 탐지를 수행하였다.


Fig. 7. 
Real radar data


Fig. 8. 
Cell conversion of the radar data (a) Real target data, (b) Cell data

그림 9에서 확인되듯이, 시간 누적을 이용한 3차원 표적 추적 결과는 원래의 위치를 잘 탐지하였다. 획득된 레이다 셀 데이터의 방위각 고각 값은 각도 측정의 오차로 인해 편차가 심하여 여러 고각 셀에 표현되었지만, 측정 오차가 존재하는 이러한 경우에도 시간 누적을 이용한 3차원 표적 추적 방법은 2셀 이내의 값에서 표적위치를 잘 추적한다. 또한 표적의 탐지 결과 뿐 아니라, 주변에 존재하는 클러터 데이터를 잘 걸러냄을 알 수 있다.


Fig. 9. 
3D Target tracking result (a) Estimated position, (b) Range-Azimuth, (c) Range-Elevation, (d) Azimuth-Elevation

이 외에도 클러터 환경에서의 성능의 검증을 위해서 다음과 같은 추가적인 시험을 수행하였다.

3.4 실제 3차원 데이터와 잡음을 추가한 위치 추정 결과

그림 9(a)의 레이다 데이터에 잡음을 추가하여 극심한 클러터 환경에서도 추적이 이루어지는지를 확인하였다. 381개의 스캔당 랜덤한 위치에 50개씩의 클러터 데이터를 추가하여 총 19050개의 클러터 데이터를 추가하였다. 그에 따른 데이터 추적 결과는 다음과 같다. 그림 10에서 보듯이, 클러터가 매우 많은 경우에도 표적 추적의 결과는 그림 9와 큰 차이가 없음을 알 수 있다. 표적 주변에서 몇 개의 허위 플롯이 탐지되었지만, 이는 클러터 밀도가 높아짐에 따라 표적의 궤적처럼 연관이 이루어졌기 때문이다.


Fig. 10. 
Target estimation result in heavy clutter situation, (a) 3D space, (b) Range-Azimuth, (c) Range-Elevation, (d) Azimuth-Elevation


Ⅳ. 결론 및 향후 과제

표적의 정보를 시간 도메인으로 누적하고 CNN을 이용하여 추정하는 방법을 제시하였다. 이 방법은 위치 정보만을 사용할 뿐 아니라, 시간을 통해서 움직임을 사용하기 때문에 실제 궤적의 형태를 띠는 플롯의 움직임만을 탐지한다. 원리적으로는 Hough Transform을 사용한 직선 탐지[12][13]와 비슷하지만, Hough Transform의 경우는 모든 플롯에 대해서 모든 기울기를 검토해야 한다는 면에서 연산량이 많이 사용된다. 반면에 3차원 텐서를 구성하여 CNN을 사용하는 방법은 각각의 텐서에서 영상 인식의 형태로 대상 표적의 궤적을 추출하기 때문에 클러터의 개수와 상관없이 처리가 가능하다.

3차원 텐서는 2차원과 시간축으로 구성되므로 표적 추정은 2차원에서만 이루어지기 때문에, 본 논문에서는 3차원 추정 방법을 위해 3개의 CNN을 사용하는 법을 제시하였고, 실제 표적을 정상적으로 추적함을 확인하였다. 그리고 본 논문에서 제시한 방법이 극심한 클러터 환경에서도 정상 동작하며, 표적 추적을 할 수 있음을 확인하였다.

본 방법을 실제로 구성하기 위해서는 고려해야 할 부분이 존재한다. 우선 입력 데이터를 셀로 만드는 과정에서 셀의 크기가 고려되어야 한다. 본 논문에서는 표적 거리와 예상 최대 속도에 기반을 둔 셀 크기 설정 방법을 제시하였는데, 허용할 만한 셀 간 이동 간격 k는 탐지 성능에 큰 영향을 줄 수 있다. 셀 크기가 커지면 탐지 성능은 올라가나 위치 추정 정확도가 떨어지며, 셀 크기가 작아지면 탐지 결과에 따른 위치 추정 정확도는 올라가나 탐지 성능이 떨어지며 클러터 밀도의 영향을 많이 받게 된다. 시스템의 상황에 맞추어 k 값의 설정이 필요하다. 또한, 3차원 공간 표적에 적용할 때 3개의 CNN을 사용하는데 세 개의 평면 CNN의 성능이 비슷해야 추정 결과가 정확하게 된다. 표적 존재 판별 및 위치 추정에서 3개의 CNN 중 가장 낮은 성능의 CNN 모델을 따라가게 되기 때문에 비슷한 성능을 가지도록 셀 크기를 설정하고 학습을 시키는 과정은 초기 설계 과정에서 중요한 부분이 된다.

본 논문은 위치와 시간 정보만을 이용하기 때문에, 향후 시간 누적을 사용하면서 레이다에서 획득되는 다양한 형질(도플러, 수신 신호 크기 등)을 적용하는 방법에 대한 추가 연구도 가능할 것으로 보인다.


Acknowledgments

이 논문은 2023년 정부의 제원으로 수행된 연구 결과임(912975101)


References
1. M. Skolnik, "Introduction to Radar Systems", Third edition, pp. 295-298, 2001.
2. A. Farina and F. A. Studer, "A review of CFAR detection techniques in radar systems", Microwave Journal, Vol. 29, pp. 115-128, Sep. 1986.
3. W. Dai, Y. Mao, R. Yuan, Y. Liu, X. Pu, and C. Li, "A Novel Detector Based on Convolution Neural Networks for Multiscale SAR Ship Detection in Complex Background", Sensors 2020, Vol. 20, No. 9, pp. 1-16, Apr. 2020.
4. Y. Wang, Y. Zhang, H. Qu, and Q. Tian, "Target Detection and Recognition Based on Convolutional Neural Network for SAR Image", 11th International Congress on Image and Signal Processing, Biomedical Engineering and Informatics(CISP-BMEI), Beijing, China, pp. 1-5, Oct. 2018.
5. S. Vitalea, G. Ferraiolib, and V. Pascazio, "Statistical based CNN algorithm for SAR image despeckling", EUSAR 2021; 13th European Conference on Synthetic Aperture Radar, online, pp. 1-5, Mar. 2021.
6. Y. Zhai, W. Deng, Y. Xu, Q. Ke, J. Gan, B. Sun, J. Zeng, and V. Piuri, "Robust SAR Automatic Target Recognition Based on Transferred MS-CNN with L2-Regularization", Computational Intelligence and Neuroscience, Vol. 2019, pp. 13, Nov. 2019.
7. Z. Huang, X. Yao, Y. Liu, C. O. Dumitru, M. Datcu, and J. Han, "Physically Explainable CNN for SAR Image Classification", ISPRS Journal of Photogrammetry and Remote Sensing Vol. 190, pp. 25-37, Aug. 2022.
8. Y. Kim and T. Moon, "Human Detection and Activity Classification Based on Micro-Doppler Signatures Using Deep Convolutional Neural Networks", IEEE Geoscience and Remote Sensing Letters, Vol. 13, No. 1, pp. 8-12, Jan. 2016.
9. J. Kwon, S. Lee, and N. Kwak, "Radar Application of Deep Neural Networks for Recognizing Micro-Doppler Radar Signals by Human Walking and Background Noise", International Symposium on Antennas and Propagation (ISAP), Busan, Korea, pp. 1-2, Oct. 2018.
10. J. Park, J.-S. Park, and S.-O. Park, "Small Drone Classification with Light CNN and New Micro-Doppler Signature Extraction Method Based on A-SPC Technique", arXiv:2009.14422, pp. 1-5, Sep. 2020.
11. Y. Dai, D. Liu, Q. Hu, and X. Yu, "Radar Target Detection Algorithm Using Convolutional Neural Network to Process Graphically Expressed Range Time Series Signals", Sensors 2022, Vol. 22, No. 18, Sep. 2022.
12. R. O. Duda and P. E. Hart, "Use of the Hough transformation to detect lines and curves in pictures", Communications of ACM, Vol. 15, No. 1, pp. 11-15. Jan. 1972.
13. A. S. Hassanein, S. Mohammad, M. Sameer, and M. E. Ragab, "A Survey on Hough Transform, Theory, Techniques and Applications", arXiv:1502.02160v1, IJCSI Vol. 12, No. 1, pp. 139-156, Jan. 2015.

저자소개
조 원 민 (Wonmin Cho)

2005년 2월 : 서울대학교 전기공학부(공학사)

2007년 2월 : 서울대학교 전기컴퓨터공학부(공학석사)

2008년 2월 ~ 현재 : 국방과학연구소 레이다 연구원

2018년 3월 ~ 현재 : 서울대학교 융합과학기술대학원 박사과정

관심분야 : 레이다, 표적 추적, 인공지능

곽 노 준 (Nojun Kwak)

1997년 2월 : 서울대학교 전기공학부(공학사)

1999년 2월 : 서울대학교 전기공학부(공학석사)

2003년 2월 : 서울대학교 전기컴퓨터공학부(공학박사)

2003년 3월 ~ 2006년 8월 : 삼성전자 통신연구소 책임연구원

2006년 9월 ~ 2007년 2월 : 서울대학교 정보기술사업단 BK 조교수

2007년 3월 ~ 2013년 8월 : 아주대학교 전자공학부 조/부교수

2013년 9월 ~ 현재 : 서울대학교 지능정보융합학과/대학원협동과정 인공지능 전공 부교수/교수

관심분야 : 패턴인식, 기계학습, 영상처리, 컴퓨터비전, 자연어 처리