Korean Institute of Information Technology

Journal Archive

The Journal of Korean Institute of Information Technology - Vol. 16 , No. 6

[ Article ]
The Journal of Korean Institute of Information Technology - Vol. 16, No. 6, pp. 81-89
Abbreviation: Journal of KIIT
ISSN: 1598-8619 (Print) 2093-7571 (Online)
Print publication date 30 Jun 2018
Received 20 Apr 2018 Revised 18 Jun 2018 Accepted 21 Jun 2018
DOI: https://doi.org/10.14801/jkiit.2018.16.6.81

기두부와 단 분리 시 조각의 식별을 위한 합성곱 신경망 구조 설계
설승환* ; 최인식** ; 신진우*** ; 정명수***
*한남대학교 전자공학과
**한남대학교 전자공학과 교수
***국방과학연구소

Design of Convolutional Neural Network Structure for the Identification of Warhead and Debris in the Separation Phase
Seung-Hwan Seol* ; In-Sik Choi** ; Jin-Woo Shin*** ; Myung-Soo Chung***
Correspondence to : In-Sik Choi Dept. of Electronic Engineering, Hannam University, 70 Hannam-ro, Daeduk-gu, Daejeon, 34430, Korea, Tel.: +82-42-629-8568, Email: recog@hnu.kr

Funding Information ▼

초록

본 논문에서는 기두부와 단 분리 시 조각의 식별을 위한 합성곱 신경망(CNN, Convolutional Neural Network) 구조를 설계하였다. 시뮬레이션을 통하여, 합성곱 신경망을 구성하는 각 계층의 변수들을 결정하고 구조를 설계하였다. 이와 같은 방법으로 설계 된 합성곱 신경망을 통해 원추운동(coning)을 갖는 4종류의 기두부와 텀블링운동(tumbling)을 갖는 6종류의 단 분리 시 조각을 분류하는 시뮬레이션을 수행하고, 그 성능을 기존에 잘 알려진 VGGNet(Visual Geometry Group Net)과 비교하였다. 시뮬레이션 결과, 제안된 기법에 의해 선정 된 컨벌루션 필터, 풀링 기법, 풀링 크기를 통해 최적화된 합성곱 신경망 구조는 모든 SNR에 대해서 VGGNet과 동일하거나 우수한 구분 성능을 보였으며, 학습시간은 약 22배 향상되었음을 확인하였다.

Abstract

In this paper, we designed CNN(Convolutional Neural Network) structure to identify warhead and debris in boosting part separation phase. Through simulation, we determined variables of each layer constituting the CNN and designed CNN structure. Simulation were performed to classify four types of warhead with coning motion and six types of debris with tumbling motion through the CNN designed by the proposed method. Then we compared the performance of CNN with the well-known VGGNet. Simulation results show that the CNN structure optimized by the convolution filter, pooling method, and pooling size determined using the proposed method has equal classification performance or better classification performance than VGGNet for all SNR. In addition, the training time was improved approximately 22 times.


Keywords: dynamic RCS, convolutional neural networks, radar target identification, warhead, debris

Ⅰ. 서론

초고속 미사일은 비행 도중 단 분리를 하며, 이 과정에서 기두부와 단 분리 시 조각이 생긴다. 기두부와 단 분리 시 조각은 크지 않기 때문에 대역폭이 좁은 레이더의 경우 구분하기가 어렵다. 그러나 시간에 따라 변하는 동적 RCS(DRCS, Dynamic Radar Cross Section)를 이용할 경우, 레이더의 대역폭이 좁아도 구분이 가능하다. 기두부는 원추운동(Coning), 장동운동(Nutation) 같은 미세거동을, 단 분리 시 조각은 워블링운동(Wobbling), 텀블링운동(Tumbling) 같은 미세거동에 의해 동적 RCS가 발생하며, 이를 통해 구분을 할 수 있다[1][2].

동적 RCS에 관한 연구로는, 항공기의 동적 RCS를 통계적으로 계산하기 위해 가우시안 혼합(Gaussian Mixture) 분포, 카이 제곱(Chi-squared) 분포, 로그 정규(log-normal) 분포를 이용하여 동적 RCS를 계산하고 정확도를 비교한 연구[3], 탄도 미사일의 동적 RCS를 준정적(Quasi-static) MoM (Methods of Moment) 기법으로 계산 한 후, 평균과 자기상관(Autocorrelation)을 사용하여 동적 RCS의 주기적인 특성을 추출한 연구[4], 탄도미사일의 동적인 특성을 이용해 고도, 속도, 가속도를 구한 후, 표적을 탐지하고 구분한 연구가 있다[5]. 이와 같이 기존의 연구들은 주어진 데이터에서 직접 특성을 추출하여 표적을 구분하였다.

합성곱 신경망(CNN, Convolutional Neural Network)은 영상의 특성을 스스로 추출하여 표적을 구분하기 때문에 따로 특성 벡터를 추출하지 않아도 되며, 구분 성능도 뛰어나기 때문에 다양한 분야에 적용되고 있다[6]-[8]. 대표적인 합성곱 신경망 구조로는 AlexNet, GoogleNet, VGGNet(Visual Geometry Group Net) 등이 있다[9]-[12]. 이러한 합성곱 신경망 구조들은 1000가지 종류를 구분하기 위해 설계된 것으로, 신경망의 구조가 복잡하고, 매우 깊다. 따라서 학습시간도 오래 걸린다.

본 논문에서는 기두부와 단 분리 시 조각을 구분하기 위해 합성곱 신경망을 설계하였으며, 합성곱 신경망의 입력 영상은 동적 RCS영상을 사용하였다. 기존의 합성곱 신경망 구조 중 VGGnet과 동일한 성능을 보이지만, 학습시간이 향상되도록 설계하였다.

합성곱 신경망 구조 설계 시 컨벌루션 필터 크기, 풀링(Pooling) 기법, 풀링 크기에 따른 표적 구분 결과를 고려하여 설계 하였다. 최종적으로 설계한 합성곱 신경망 구조는 VGGNet과 성능을 비교하였다[8].

시뮬레이션 결과, 설계한 합성곱 신경망 구조는 SNR이 0dB에서 VGGNet보다 우수한 성능을 보였으며, 학습 속도가 향상 되었다.


Ⅱ. 합성곱 신경망
2.1 합성곱 신경망

합성곱 신경망은 영상을 입력으로 받아 영상의 특성을 추출하여 구분하는 방법으로 그림 1과 같이 입력 영상의 특성을 추출하는 부분과 표적을 구분하는 부분으로 나눌 수 있다. 입력 영상의 특성을 추출하는 부분에서는 컨벌루셔널 계층(Convolutional Layer)과 풀링 계층(Pooling Layer)이 있으며, 표적을 구분하는 과정에서는 완전 연결된 계층(Fully-connected Layer)이 있다[13].


Fig. 1. 
The structure of general CNN

컨벌루셔널 계층에서는 입력 영상의 특성을 추출하는 역할을 한다. 입력영상에 여러 개의 필터를 적용한 후, 활성화 함수를 통해 입력 영상의 특성을 추출 하며, 이를 피쳐맵(Feature Map)이라고 한다. 활성화 함수로는 ReLU(Rectified Linear Unit)함수를 사용한다[14].

풀링 계층은 컨벌루셔널 계층에서 추출 된 피쳐맵의 차원을 압축 한다. 풀링 계층에서는 입력 받은 피쳐맵을 n×m의 크기를 갖는 패치로 분할한다. 여기서 패치를 분할하는 방법으로는 평균 풀링과 최댓값 풀링 방법으로 나뉜다. 평균 풀링은 각각의 패치 내의 값들의 평균값을 계산하는 방법이며, 최댓값 풀링은 각각의 패치 내의 값들 중 가장 큰 값을 선택하는 방법이다[14].

마지막으로 완전 연결 된 계층에는 표적을 구분하기 위한 인공신경망 구분기가 위치한다. 풀링 계층에 의해 차원이 압축 된 피쳐맵은 하나의 열 벡터로 변환하여 완전 연결된 계층의 입력으로 사용이 된다. 이 때 과적합을 방지하기 위해 드랍 아웃(Drop-out) 기법을 사용한다[9]. 각 은닉층에서의 활성화 함수로는 컨벌루셔널 계층과 마찬가지로 ReLU 함수를 사용하며, 마지막 출력 층에서는 soft-max 함수를 사용하여 표적을 분류한다[14].

2.2 VGGNet

합성곱 신경망은 다양한 구조로 설계 될 수 있으며, 구조에 따라 다른 성능을 갖는다. 영상 인식 분류 대회인 ILSVRC(ImageNet Large-Scale Visual Recognition Challenge)에서는 다양한 합성곱 신경망 구조가 소개 되었으며, 우수한 구분 성능을 보였다. 그 중 VGGNet은 옥스퍼드 대학교에서 설계 한 합성곱 신경망으로 구현이 간단하여 많이 사용되고 있다[11].

VGGNet은 컨벌루셔널 계층 수에 따라 총 6개의 종류로 구성되어 있다. 컨벌루셔널 계층에서는 컨벌루션 필터의 크기에 따라 구분 성능이 달라지므로, 적절한 컨벌루션 필터를 결정하는 것이 중요하다. VGGNet은 컨벌루션 필터의 크기를 크게 하지 않고, 3×3 크기의 컨벌루션 필터를 연속적으로 사용함으로써, 계산량을 줄였으며, 구분 성능 또한 향상 시켰다.

본 논문에서는 VGGNet 구조 중 11개의 계층을 가진 구조와 비교하였으며, VGGNet구조는 표 1과 같다.

Table 1. 
VGGNet structure
Input layer 224×224
Convolutional layer 3×3 (64)
max-pooling 3×3
Convolutional layer 3×3 (128)
max-pooling 3×3
Convolutional layer 3×3 (256)
Convolutional layer 3×3 (256)
max-pooling 3×3
Convolutional layer 3×3 (512)
Convolutional layer 3×3 (512)
max-pooling 3×3
Convolutional layer 3×3 (512)
Convolutional layer 3×3 (512)
max-pooling 3×3
fully-connected layer (4096)
fully-connected layer (4096)
fully-connected layer (1000)

여기서 컨벌루셔널 계층 괄호안의 숫자는 필터의 개수를, 완전 연결 된 계층 괄호안의 숫자는 은닉층의 개수를 나타내며, 각 층에서 n×n형태를 갖는 행렬은 필터 및 영상의 크기이다.


Ⅲ. 동적 RCS 데이터베이스 구축 방법

기두부의 경우 세차운동, 장동운동과 같은 복잡한 운동 특성을 가지며, 단 분리 시 조각의 경우는 워블링, 텀블링과 같은 운동 특성을 가진다. 본 논문에서는 문제를 단순화하기 위해서, 기두부의 경우 세차운동만 한다고 가정하였으며, 단 분리 시 조각의 경우 텀블링 운동만 한다고 가정하여 동적 RCS를 구축하였다[2][15]. 그림 2는 기두부와 단 분리 시 조각의 운동 모델이다.

그림 2에서 α는 기두부의 세차각이며, w는 각 표적의 운동 모델 각속도이다.


Fig. 2. 
The motion model of each target

기두부의 동적 RCS를 구축하기 위해서, 먼저 정적 RCS 데이터베이스를 구축해야 한다. 정적 RCS 데이터베이스를 구축하기 위해, 기두부를 z축 기준으로 α만큼 기울여 고정시킨 후, 방위각을 360°회전시켜 RCS를 계산하였다. 마찬가지로 단 분리 시 조각의 경우도 방위각을 360°회전시켜 계산하였다. 이 때 모든 w에 따른 동적 RCS를 구하기 위해서는 방위각을 0.01°간격으로 계산해야 한다. 그러나 0.01°간격으로 계산할 경우 너무 많은 계산 시간을 소모한다.

따라서 본 논문에서는 방위각을 0.1°간격마다 정적 RCS를 계산한 후, 스프라인(Spline) 보간법을 이용하여 0.01°간격으로 정적 RCS를 보간 하였다[16]. 이와 같은 방법으로 획득한 정적 RCS의 정확도를 검증하기 위해 물리광학법을 사용하여 0.01°간격으로 계산한 정적 RCS값과 비교를 하였다. 정적 RCS계산은 전자파 해석 툴인 FEKO를 이용하였으며, 주파수 대역은 S-band, 표적은 그림 2의 기두부 A를 사용하였다.

그림 3은 스프라인 보간법을 이용하여 획득한 정적 RCS값과 FEKO를 통하여 계산한 정적 RCS값을 비교한 그래프이다. 비교 결과, 스프라인 보간법을 이용하여 계산한 정적 RCS값은 FEKO에서 계산한 정적 RCS값과 상대 오차가 0.7%가 나왔다. 따라서 스프라인 보간법을 사용한 결과와 FEKO로 계산한 결과가 거의 일치함을 보였다.


Fig. 3. 
Comparison of RCS data using spline interpolation and raw data using FEKO simulation

(Target : Warhead A, Elevation angle : 0°, SNR : noise free)



이와 같이, 0.01°간격으로 정적 RCS 데이터베이스를 구축한 후, w에 따라 동적 RCS를 계산한다. 이 때 동적 RCS는 표적의 w에 따라 정적 RCS 데이터베이스에서 n간격만큼 추출하여 나타내며, n식 (1)과 같이 나타난다.

n=L×360PRF×0.01(1) 

여기서 L은 표적의 초당 회전 수 이다. 예를 들어 표적이 1번 회전할 경우 데이터 추출 간격은 36이 되며, RCS 데이터베이스에서 36간격마다 추출한 RCS가 동적 RCS가 된다.

마지막으로 표적이 L번 회전 할 때, n간격 만큼 추출한 동적 RCS를 L번 반복하여 나타내면 최종 동적 RCS 데이터베이스가 구축된다. 이와 같은 방법으로 본 논문에서는 표적의 wα 그리고 고도각에 따른 동적 RCS 데이터베이스를 구축하였으며, 획득한 동적 RCS 크기의 최댓값이 ‘1’이 되도록 정규화 하였다. 그림 4는 제안한 방법으로 획득한 동적 RCS 그래프이며, 마찬가지로 주파수 대역은 S-band, 표적은 그림 6의 기두부 A를 사용하였다.


Fig. 4. 
Dynamic RCS of the warhead A

(w : 62.83[rad/s], Elevation angle : 0°, α: 2°, SNR : noise free)




Ⅳ. 제안한 방법

본 논문에서는 표 2와 같이 컨벌루션 필터 크기, 풀링 기법, 풀링 크기를 변화시켜 가며 합성곱 신경망의 구조를 설계하였다. 이 때 완전 연결 된 계층은 VGGNet과 동일하게 설정하였으며, 컨벌루셔널 계층 수는 피쳐맵의 크기가 4×4가 될 때까지 증가시켰다.

Table 2. 
The variables to design structure of CNN
Input layer 64×64
Convolutional layer n×n (64)
PM-pooling m×m
fully-connected layer (4096)
fully-connected layer (4096)
fully-connected layer (2)

여기서 n은 컨벌루션 필터의 크기이며, PM은 풀링 기법, m은 풀링 크기를 의미한다.

컨벌루션 필터 크기, 풀링 기법, 풀링 크기의 변수를 동시에 변화시켜 가며 성능을 비교하기에는 너무 많은 경우의 수가 생기므로, 컨벌루션 필터 크기, 풀링 기법, 풀링 크기 순으로 변화시켜 가며 합성곱 신경망 구조를 설계하였다.

첫 번째로 컨벌루션 필터 크기에 따른 구분 성능을 비교하였다. 컨벌루션 크기는 3×3, 5×5, 7×7, 9×9, 11×11로 하여 구분 성능을 비교하였다. 컨벌루션 필터 크기를 변화시켜 가며 구분 성능을 비교하기 위해선, PM과 m의 값을 임의로 지정해 줘야 한다. 따라서 풀링 기법은 최댓값 풀링, 풀링 크기는 2×2로 지정하였다.

컨벌루션 필터 크기를 선정 한 후, 두 번째로 풀링 기법의 따른 구분 성능을 비교하였다. 풀링 기법으로는 최댓값 풀링과 평균 풀링을 이용하였다. 풀링 기법에 따른 구분 성능을 비교하기 위해 풀링 크기는 2×2로 지정하였다.

마지막으로 풀링 크기에 따른 구분 성능을 비교하였다. 풀링 크기로는 2×2, 3×3, 4×4, 5×5로 하였다. 이와 같이, 최종으로 선정 된 컨벌루션 필터, 풀링 기법, 풀링 크기를 통해 합성곱 신경망 구조를 설계하였으며, 그 성능을 VGGNet과 비교하였다. 그림 5는 제안된 설계 방법의 블록도이다.


Fig. 5. 
The block diagram of proposed method


Ⅴ. 시뮬레이션

기두부와 단 분리 시 조각의 동적 RCS영상을 획득하기 위해 그림 6그림 7과 같이 3D CAD 모델을 제작하였다. 기두부의 경우 서로 다른 4종의 기두부를 제작하였으며, 단 분리 시 조각의 경우 원기둥과 원뿔로 가정하여 동적 RCS영상을 획득하였다.


Fig. 6. 
3-D CAD models of the warhead


Fig. 7. 
3-D CAD models of the debris in boosting part separation phase

시뮬레이션을 하기 위한 파라미터는 표 3과 같다. 여기서 w의 경우, 기두부는 매우 빠른 속도로 미세 거동하기 때문에 단 분리 시 조각보다 10배 빠르게 움직이도록 가정하였다.

Table 3. 
Parameters for dynamic RCS calculation
Warhead Debris
Frequency S-band
PRF 1kHz
62.83∼251.33 (62.83 interval) 6.28∼25.13 (6.28 interval)
2°∼8° (2° interval)

허위 표적 구분을 위한 합성곱 신경망 구조를 설계하기 위해 컨벌루션 필터 크기, 풀링 방법, 풀링 크기 순으로 바꾸어가며 설계하였다. 입력 영상으로는 64×64 크기의 동적 RCS영상을 사용하였으며, 각 표적의 초기 위상을 바꾸어 가며 영상을 획득하였다. 따라서 기두부의 경우 15,120개의 영상을 획득하였으며, 단 분리 시 조각의 경우 7,236개의 영상을 획득하였다.

훈련 데이터로는 잡음이 부가되지 않는 환경에서의 동적 RCS데이터를 사용하였으며, 총 데이터 영상에서 90%는 학습 데이터로 10%는 검증 데이터로 사용하였다. 테스트 데이터로는 잡음이 부가된 동적 RCS데이터를 사용하였다. 학습률은 0.01, 배치 크기(batch size)는 128로 설정하였으며, 완전 연결된 계층에서는 50% 확률의 드랍 아웃을 적용하였다. 시뮬레이션 과정에서 계산 속도를 향상시키기 위해 GPU 1개를 사용하였으며, 사용된 GPU는 GeForce GTX 1050(2.15GHz)이다[17]. 또한 표적 인식 결과의 신뢰성을 높이기 위해 각 시뮬레이션 마다 50회의 몬테카를로 시뮬레이션을 수행하였다.

먼저 컨벌루션 필터의 크기를 변화 시켜가며 표적 인식 성능을 비교 하였다. 시뮬레이션 결과 SNR이 –20dB에서 11×11크기의 컨벌루션 필터가 가장 좋은 구분 성능을 보였으나, 10dB 이상부터는 가장 낮은 구분성능을 보였다. 반면에 컨벌루션 필터 크기가 9×9인 경우, SNR이 –10dB이상부터 가장 좋은 구분 성능을 보였다. 따라서 컨벌루션 필터 크기는 9×9로 설정하였으며, 구분 결과는 그림 8과 같다.


Fig. 8. 
Identification result by convolution filter size

두 번째로 풀링 기법에 따른 구분 성능을 비교 하였다. 시뮬레이션 결과 최댓값 풀링을 이용하였을 경우가 평균 풀링을 이용하였을 경우 보다 더 높은 구분 성능을 보였으며, 잡음에도 더 강건하다는 것을 알 수 있다. 이는 피쳐맵의 값 중 최댓값을 추출함으로써 잡음을 줄이는 동시에 표적의 특성을 나타낼 수 있기 때문에 평균 풀링 기법보다 더 좋은 성능을 보였다. 따라서 본 논문에서는 풀링 기법으로 최댓값 풀링 기법을 적용하였다. 그림 9는 풀링 기법에 따른 표적 인식 결과이다.

마지막으로 풀링 크기에 따른 구분 성능을 비교 하였다. 시뮬레이션 결과 풀링 크기가 2×2 경우 다른 풀링 크기에 비해 잡음에도 매우 강건하며, 더 좋은 구분 성능을 보였다. 따라서 본 논문에서는 풀링 크기를 2×2으로 설정하였다. 그림 10은 풀링 크기에 따른 구분 성능이다.


Fig. 9. 
Identification result by pooling method


Fig. 10. 
Identification result by pooling size

이와 같이 모든 시뮬레이션을 통하여 컨벌루션 필터 크기, 풀링 기법, 풀링 크기를 설정하였으며, 최종 설계 된 합성곱 신경망 구조는 표 4와 같다.

Table 4. 
Optimized CNN structure
Input layer 64×64
Convolutional layer 9×9 (64)
max-pooling 2×2
Convolutional layer 9×9 (64)
max-pooling 2×2
Convolutional layer 9×9 (128)
max-pooling 2×2
Convolutional layer 9×9 (128)
max-pooling 2×2
fully-connected layer (4096)
fully-connected layer (4096)
fully-connected layer (2)

마지막으로 설계한 합성곱 신경망의 성능을 확인하기 위하여, 본 논문에서는 11개의 계층으로 구성되어 있는 VGGnet과 비교 하여 계산 속도와 표적 구분 성능을 비교 하였다. 시뮬레이션 결과 학습 시간은 VGGNet에 비해 약 22배 향상 되었다. 표적 구분 성능은 SNR이 0dB에서 VGGNet은 80.29%의 구분 성능을, 제안한 합성곱 신경망은 85.1%의 구분 성능을 보였다. 표 5는 합성곱 신경망 구조의 학습 속도를 나타내며, 그림 11은 VGGNet과 제안한 합성곱 신경망 구조의 구분 성능 결과이다.

Table 5. 
Comparison of training time for the VGGnet and proposed CNN structure
CNN structure VGGNet Proposed structure
Training time[s] 3736.63 163.47


Fig. 11. 
Comparison of identification performance for the VGGnet and proposed CNN structure


Ⅵ. 결론

본 논문에서는 합성곱 신경망 구조를 설계하여 기두부와 단 분리 시 조각을 구분하였다. 합성곱 신경망의 입력 영상으로는 동적 RCS를 사용하였다. 합성곱 신경망 구조 설계를 위해 컨벌루션 필터 크기, 풀링 방법, 풀링 크기 순으로 변수를 변화 시켜 가며 구분 성능을 비교 하였다.

실험 결과, 컨벌루션 필터 크기 경우 9×9일 때 가장 좋은 구분 성능을 보였다. 풀링 기법은 피쳐맵의 값들 중 최댓값을 추출함으로써, 잡음을 줄이고 영상의 특성을 뽑아내는 최댓값 풀링을 사용하였을 때 더 좋은 구분 성능을 보였다. 마지막으로 풀링 크기의 경우 2×2일 때 가장 좋은 성능을 보였다. 다양한 시뮬레이션을 통해 얻은 결과를 이용하여 합성곱 신경망 구조를 설계하였으며, 이를 VGGNet과 비교하였다.

그 결과, SNR이 0dB에서 VGGNet은 80%이상의 구분 성능을 보였으며, 제안한 합성곱 신경망은 85%이상의 구분 성능을 보였다. 또한 계산 속도가 약 22배 향상되었다. 따라서 합성곱 신경망을 구성하는 각 계층의 변수들에 따라 합성곱 신경망의 성능이 향상될 수 있음을 확인하였다.


Acknowledgments

본 연구는 국방과학연구소의 지원(계약번호:UD170019FD)을 받아 수행하였으며, 이에 감사드립니다.

이 논문은 2016년도 정부(미래창조과학부)의 재원으로 한국연구재단의 지원을 받아 수행된 연구임 (No. NRF-2016R1A2B1011840).


References
1. A. R. Persico, C. V. Ilioudis, C. Clemente, and J. Soraghan, "Novel Approach for Ballistic Targets Classification from HRRP frame", Proc. IEEE Conf. Sensor Signal Processing for Defence (SSPD), p1-5, Dec., 2017.
2. P. Lei, K. Li, and Y. Liu, "Feature extraction and target recognition of missile targets based on micro-motion", 2012 IEEE 11th Int. Conf. Signal Process, p1914-1919, Oct., 2012.
3. Y. Q. Zhuang, "Accurate statistical modeling method for dynamic RCS", Progress in Electromagnetics Research Symposium Proceedings, p25-28, Aug., 2014.
4. P. Peng, C. Tong, J. Sun, D. Li, and W. Tong, "Dynamic RCS feature of ballistic missile for detection and classification in the boost phase", in Proc. Cross Strait Quad-Regional Radio Sci. and Wirel. Technol. Conf. (CSQRWC), p427-430, Jul., 2013.
5. S. H. Park, J. H. Jeong, C. K. Ryoo, and K. Y. Choi, "Detection and Classification of a Ballistic Missile in Ascent Phase", 11th International Conference on Control, Automation and Systems, p1235-1238, Oct., 2011.
6. O. Russakovsky, et al., "ImageNet large scale visual recognition challenge", International Journal of Computer Vision, Vol. 115(No. 3), p211-252, Dec., 2015.
7. G. Hinton, et al., "Deep Neural Networks for Acoustic Modeling in Speech Recognition", IEEE Signal Processing Magazine, Vol. 29(No. 6), p82-97, Nov., 2012.
8. A. Graves, A. Mohamed, and G. Hinton, "Speech recognition with deep recurrent neural networks", IEEE Conf. Acoustics Speech and Signal Processing (ICASSP), p6645-6659, May, 2013.
9. A. Krizhevsky, I. Sutskever, and G. Hinton, "ImageNet Classification with Deep Convolutional Neural Networks", Proc. Neural Information and Processing Systems, p1106-1114, Dec., 2012.
10. C. Szegedy, et al., "Going Deeper with Convolutions", Proc. IEEE Conf. Comput. Vis. Pattern Recognit, p1-9, Jun., 2015.
11. Simonyan, K., and Zisserman, A., "Very Deep Convolutional Networks For Large-Scale Image Recognition", In Proc. International Conference on Learning Representations, p1-14, Apr., 2015.
12. K. He, X. Zhang, S. Ren, and J. Sun, "Deep Residual Learning For Image Recognition", Proc. IEEE Conf. Comput. Vis. Pattern Recognit. (CVPR), p770-778, Jun., 2016.
13. Y. LeCun, Y. Bengio, and G. Hinton, Deep learning, Nature, Vol. 521(No. 7553), p436-444, May, 2015.
14. Phill Kim, "Deep Learning for Beginners with MATLAB Examples", GLS, p143-174, Dec., 2016.
15. I. O. Choi, K. B. Kang, S. H Kim, J. H. Jung, K. T. Kim, and S. H. Park, "Performance Analysis of the Discrimination between Space-targets Using the Maneuvering", Journal of KIIT, Vol. 15(No. 11), p55-63, Nov., 2017.
16. C. de Boor, "A Practical Guide to Splines", New York, Springer-Verlag, (1978).
17. D. C. Kwon, and B. Y. Kang, "CPU and GPU Performance Analysis for Convolution Neural Network", Journal of KIIT, Vol. 15(No. 8), p11-18, Aug., 2017.

저자소개
신진우 (Jin-Woo Shin)

1995년 2월 : 서울시립대학교 전자공학과(공학사)

1997년 2월 : 서울시립대학교 전자공학과 (공학석사)

2003년 2월 : 서울시립대학교 전자공학과 초고주파 전공 (공학박사)

1997년 2월 ~ 현재 : 국방과학연구소 레이다부 책임연구원

관심분야 : 전자파 해석, 디지털 능동위상배열 안테나, 레이다 시스템

정명수 (Myung-Soo Chung)

1985년 2월 : 경북대학교 전자공학과(공학사)

1997년 2월 : 경북대학교 전자공학과 (공학석사)

2003년 2월 : 충남대학교 전자공학과 초고주파 및 광파 전공 (공학박사)

1987년 2월 ~ 현재 : 국방과학연구소 레이다부 수석연구원

관심분야 : 디지털 능동위상배열 안테나 및 레이다 시스템