Korean Institute of Information Technology

Current Issue

The Journal of Korean Institute of Information Technology - Vol. 22 , No. 3

[ Article ]
The Journal of Korean Institute of Information Technology - Vol. 20, No. 7, pp. 19-28
Abbreviation: Journal of KIIT
ISSN: 1598-8619 (Print) 2093-7571 (Online)
Print publication date 31 Jul 2022
Received 20 May 2022 Revised 11 Jul 2022 Accepted 14 Jul 2022
DOI: https://doi.org/10.14801/jkiit.2022.20.7.19

복소수 CycleGAN 기반의 이미지 변환을 이용한 시뮬레이션 SAR 표적 식별
최여름*
*국방과학연구소

Simulated SAR Target Recognition using Image-to-Image Translation Based on Complex-Valued CycleGAN
Yeoreum Choi*
Correspondence to : Yeoreum Choi Defense AI Technology Center, Agency for Defense Development Yuseong P.O.Box 35, Daejeon, 34186, Korea Tel.: +82-42-821-4475, Email: cyr0703@add.re.kr


초록

딥러닝 기반 SAR 표적 식별의 성능을 높이기 위해서는 모델을 충분히 학습시킬 만한 다수의 SAR 영상이 필요하지만, 이러한 SAR 영상을 얻는 과정은 매우 복잡하고 많은 시간과 비용이 소요된다. 이러한 문제를 해결하기 위해 시뮬레이션 SAR 영상을 생성하여 보완하는 연구가 진행되었으나, 시뮬레이션 SAR 영상과 실측 SAR 영상 간의 차이로 인해 학습에 사용된 실측 SAR 영상의 수가 부족할수록 식별 성능이 저하되는 경향을 보인다. 본 논문에서는 이미지 변환 분야에서 높은 성능을 보인 CycleGAN을 이용하여 실측 SAR 영상을 시뮬레이션 SAR 영상과 유사하게 변환하고, 해당 영상을 시뮬레이션 SAR 영상만으로 학습된 모델에 테스트하여 식별 성능을 도출한다. 또한 기존의 SAR 표적 식별 알고리즘들이 SAR 영상의 크기 정보만을 활용한 것과는 달리, 크기와 위상 정보를 모두 활용한 복소수 네트워크 기반의 방법을 제안한다.

Abstract

In order to improve deep learning-based SAR target recognition performance, a large amount of SAR data are required to sufficiently train the model. However, obtaining measured SAR data for training is too complicated and expensive in terms of time and money. In response, a method of generating simulated SAR data can be an alternative, but this approach shows the performance degradation as the measured SAR data used for training is scarce due to the distribution gap. In this paper, the measured SAR images are translated to the simulation-like SAR images using CycleGAN which showed high performance in the field of image-to-image translation. The translated SAR images are used as the inputs of the network trained on simulated SAR images. Furthermore, unlike traditional SAR target recognition algorithms using only amplitude of SAR images, the proposed method is based on a complex-valued network using both amplitude and phase data.


Keywords: simulated SAR target recognition, image-to-image translation, cycle generative adversarial network, complex-valued network

Ⅰ. 서 론

SAR(Synthetic Aperture Radar) 영상은 광학영상과는 달리 주야간 및 기상 상황에 구애받지 않고 원하는 지역으로부터 영상을 획득할 수 있다는 장점으로 인하여 주로 감시정찰 분야에 활용되어왔다. 최근에는 컴퓨터 비전 분야에서 딥러닝(Deep learning) 기반의 알고리즘[1][2]이 괄목할 만한 성능 향상을 보이면서, SAR 표적 식별 분야에서도 관련 연구가 활발히 진행되고 있다[3][4]. 이러한 딥러닝 기반 SAR 표적 식별 알고리즘의 성능 향상을 위해서는 네트워크를 충분히 학습시킬 만한 다수의 실측 SAR 영상이 필요하다. 그러나 실측 SAR 영상을 얻기 위해서는 레이더 장비를 이용하여 자료를 수집하고, 후처리 기법을 통해 영상으로 가공하는 과정을 거쳐야 한다. 이러한 과정은 매우 복잡하고 많은 시간과 비용이 소요된다[5].

전자파 산란해석 기법을 이용하여 생성된 시뮬레이션 SAR 영상은 이처럼 부족한 실측 SAR 영상을 대체하여 사용될 수 있다. 시뮬레이션 SAR 영상을 얻는 과정은 다음과 같다. 먼저 실제 표적과 유사하게 제작된 CAD(Computer-Aided Design) 모델과 배경 클러터에서 반사되어 얻어진 전자기 신호를 계산한다. 이때 전자기 신호는 광선 추적 기법[6]을 이용하여 얻어지는데, 돔 형태의 가상 공간에서 광선 다발을 CAD 모델을 향해 사출하고, 각각의 광선에 대해 광선 추적을 수행하여 레이더 반사 면적(RCS, Radar Cross Section)을 계산한다. 이렇게 계산된 RCS 정보를 FFT(Fast Fourier Transform) 기반의 SAR 영상 생성 알고리즘[7]으로 처리하여 SAR 영상을 획득한다. 이러한 시뮬레이션 SAR 영상 생성 시스템이 한 번 구축되면, 실측 SAR 영상보다 비교적 간단하게 원하는 고각, 방위각, 해상도의 시뮬레이션 SAR 영상 데이터베이스를 구축할 수 있다. 그러나 CAD 모델의 부정확성, 광선 추적 기법을 이용한 RCS 계산 오차, 실제 배경 클러터와의 복잡도 차이 등의 다양한 이유로 시뮬레이션 데이터와 실제 데이터 간의 차이가 발생하게 된다. 이러한 차이로 인해 시뮬레이션 SAR 영상만으로 학습된 네트워크에 실측 SAR 영상을 식별하였을 때는 낮은 성능을 보인다[8].

또한, SAR 영상은 크기와 위상을 가지는 복소수 형태의 데이터임에도 불구하고, 기존의 SAR 표적 식별 기법들은 광학영상에 맞게 개발된 딥러닝 기반의 알고리즘들을 사용하기 위해 위상 정보는 제외하고 크기 정보만을 이용하였다. 그러나 SAR 영상의 위상 정보에도 레이더와 물체 사이의 거리 정보가 포함되어 있으므로 이를 활용할 필요가 있다.

따라서 본 논문에서는 CycleGAN[9]과 복소수 네트워크를 결합하여 복소수 CycleGAN 기반의 방법을 제안한다. 1) CycleGAN은 실측 SAR 영상을 시뮬레이션 SAR 영상과 유사하게 변환하여 두 영상 간의 분포 차이를 줄일 수 있으며, 2) 복소수 네트워크는 기존의 SAR 표적 식별 기법들과는 달리 SAR 영상의 크기와 위상 정보를 모두 사용하여 더욱 다양한 정보를 학습할 수 있다. 실험에서는 SAMPLE 데이터셋[10]의 실측 SAR 영상을 시뮬레이션 SAR 영상과 유사하게 변환하고, 해당 영상을 시뮬레이션 SAR 영상만으로 학습된 복소수 CNN에 테스트하여 식별 성능이 향상됨을 보인다.

본 논문은 다음과 같이 구성되어 있다. 2장에서는 본 논문에서 사용하는 복소수 CycleGAN 모델의 구조를 상세히 기술하고, 3장에서는 복소수 Cycle GAN 기반의 시뮬레이션 SAR 표적 식별을 수행하는 방법을 자세하게 설명한다. 4장에서는 SAMPLE 데이터셋으로 실험 및 분석을 수행하여 결과를 제시한다. 마지막으로 5장에서 결론 및 향후 과제에 대해 기술한다.


Ⅱ. 복소수 CycleGAN 모델

2장에서는 복소수 네트워크와 CycleGAN의 간략한 이론을 설명하고, 실측 SAR 영상을 시뮬레이션 SAR 영상과 유사하게 변환하기 위한 복소수 Cycle GAN 모델의 구조를 다룬다.

2.1 복소수 네트워크

레이더 신호처럼 복소수로 표현 가능한 다양한 데이터가 존재하지만, 기존의 딥러닝 기반 알고리즘들은 오직 크기 정보만을 이용하여 네트워크를 학습하였다. 이러한 문제점을 해결하기 위해 C. Trabelsi 등의 연구[11]에서는 복소수 연산이 가능한 네트워크를 제안하였다.

2.1.1 복소수 표현

복소수는 기본적으로 실수부 a와 허수부 b가 결합하여 z = a + ib의 형태로 표현된다. 이에 착안하여 복소수 네트워크에서는 각 컨볼루션 계층(Convolutional layer)에서 얻어지는 N차원의 특징맵을 절반으로 나누어, 앞선 N/2차원은 실수부, 남은 N/2차원은 허수부의 특징맵으로 사용한다.

2.1.2 복소수 컨볼루션

입력된 특징맵을 X = Xr + iXi, 컨볼루션에 사용된 필터를 W = Wr + iWi라고 할 때, 두 컨볼루션 곱의 결과 Z = Zr + iZi식 (1)과 같이 표현된다.

Z=Zr+iZi=XW=XrWr-XiWi+iXrWi+XiWr(1) 

위와 같이 복소수 컨볼루션은 실수부 Zr과 허수부 Zi를 각각 구하는 과정으로 구성된다. 결과적으로는 총 4번의 실수 컨볼루션만을 통해서 복소수 특징맵을 얻을 수 있다.

2.1.3 복소수 활성화 함수

복소수 네트워크의 활성화 함수로는 CReLU(Complex ReLU) 함수를 사용하며, 특징맵 결과의 실수부와 허수부 연산을 따로 수행하므로 식 (2)와 같이 계산한다.

CReLUZ=ReLUZr+iReLUZi(2) 
2.1.4 복소수 배치 정규화

복소수 배치 정규화(Batch normalization)는 식 (3)을 통해 입력 x의 분포를 새로운 분포 x~로 정규화한다.

x~=V-12x-Ex(3) 

이때 E[x]는 평균, V=VrrVriVirVii는 공분산 행렬이다. 정규화된 분포 x~에 학습된 스케일 변수(Scale parameter) γ와 시프트 변수(Shift parameter) β를 이용하여 식 (4)의 결과를 얻는다.

BNx~=γx~+β(4) 
2.2 CycleGAN

생성기(Generator)와 분류기(Discriminator) 간의 적대적 학습을 통해 이미지 생성모델을 학습하는 적대적 생성 네트워크(GAN, Generative Adversarial Network)[12]의 등장 이후, GAN 기반의 생성모델들이 뛰어난 성능을 보여왔다. 초창기 GAN이 노이즈 입력으로부터 이미지를 생성해냈던 것에서 발전하여, 이미지를 입력으로 받아 다른 형태의 새로운 이미지를 생성하는 Pix2Pix[13]의 등장으로 다양한 GAN 기반의 이미지 변환 알고리즘들이 등장하였다.

이 중 CycleGAN은 두 개의 GAN을 동시에 학습하면서 순환 일관성 손실함수(Cycle consistency loss function)를 통해 입력 영상과 변환된 영상 간의 일관성이 보장되도록 학습하여 이미지 변환 성능을 개선하였다. 이때 사용된 두 GAN의 손실함수는 식 (5), (6)과 같이 표현된다.

LGANG,DY,X,Y=EylogDYy+Exlog1-DYGx(5) 
LGANF,DX,Y,X=EylogDXx+Eylog1-DXGy(6) 

여기서 G는 도메인 X의 영상을 도메인 Y의 영상과 유사하게 변환하는 생성기이며, F는 반대로 변환하는 생성기이다. DXDY는 각 도메인의 영상이 실제 영상인지 생성된 영상인지 판단하는 분류기이다. CycleGAN에서는 위의 두 손실함수와 함께 식 (7)의 순환 일관성 손실함수를 사용한다.

LcycG,F=ExFGx-x1+EyGFy-y1(7) 

이때 ∥ㆍ∥1는 L1-norm을 의미한다. 위의 식 (5), (6), (7)을 결합한 CycleGAN의 최종 손실함수는 식 (8)로 표현된다.

LG,F,DX,DY=LGANG,DY,X,Y            +LGANF,DX,Y,X+λLcycG,F(8) 
2.3 복소수 CycleGAN 구조

그림 1은 복소수 CycleGAN의 개념도이다. 실측 SAR 영상(도메인 X)은 생성기 G를 통과하여 시뮬레이션 SAR 영상(도메인 Y)과 유사하게 변환된다. 이렇게 변환된 시뮬레이션 SAR 영상은 다시 생성기 F를 통과하여 원래의 실측 SAR 영상과 유사하게 복원된다. 순환 일관성 손실함수(Lcyc)를 통해 두 영상 간의 차이가 작아지도록 학습을 수행한다. 이때 변환된 시뮬레이션 SAR 영상과 실제 시뮬레이션 SAR 영상을 구분하는 분류기 DY를 함께 학습함으로써, 생성기 G가 실제 시뮬레이션 SAR 영상을 최대한 유사하게 생성하도록 학습한다. 생성기 F의 학습 또한 분류기 DX를 사용하여 같은 과정을 통해 진행된다.


Fig. 1. 
Framework of complex-valued CycleGAN

복소수 CycleGAN에 사용된 생성기와 분류기의 네트워크 구조는 그림 2와 같이 구성되어 있다. 생성기는 64×64×2 크기의 복소수 SAR 영상을 입력받아, 4개의 복소수 컨볼루션 모듈을 거쳐 4×4×256 크기의 특징맵으로 인코딩(Encoding)한다. 인코딩된 특징맵은 다시 업샘플링(Upsampling)과 복소수 컨볼루션 모듈을 이용한 디코딩(Decoding) 과정을 거쳐 입력과 같은 차원인 64×64×2 크기의 복소수 SAR 영상으로 변환된다. 이때 인코딩 과정에서 나온 특징맵을 ‘skip connection’으로 연결하는 U-Net[14]의 구조를 차용하여 정보 손실을 최소화한다. 분류기 또한 마찬가지로 64×64×2 크기의 복소수 SAR 영상을 입력으로 받는다. 이후 4개의 복소수 컨볼루션 모듈을 거쳐 8×8×2 크기의 특징맵을 얻게 되는데, 이렇게 얻어진 특징맵의 모든 요소값을 평균하여 1에 가까울수록 real, 0에 가까울수록 fake로 판별하도록 학습된다. 이러한 방법은 PatchGAN[13] 구조로, 영상의 고주파 성분에 집중하여 더 선명한 영상을 얻을 수 있다.


Fig. 2. 
Structures of generator(up), discriminator(down) of complex-valued CycleGAN


Ⅲ. 복소수 CycleGAN 기반의 시뮬레이션 SAR 표적 식별 방법

기존의 딥러닝 기반 시뮬레이션 SAR 표적 식별은 시뮬레이션 SAR 영상만으로 (혹은 일부의 실측 SAR 영상과 함께) 학습된 CNN에 실측 SAR 영상을 입력하여 수행되었다. 그러나 두 영상 간 분포 차이(Distribution gap)로 인해 학습에 실측 SAR 영상이 적게 사용될수록 낮은 식별 성능을 보였다. 이러한 문제를 해결하기 위해 본 논문에서는 그림 3과 같은 방법으로 시뮬레이션 SAR 표적 식별을 수행한다.


Fig. 3. 
Proposed method of simulated SAR target recognition based on complex-valued CycleGAN

이때 복소수 CycleGAN은 2장에서 설명한 구조를 사용하였으며, 복소수 CNN은 비교를 위해 [10]에서 사용한 CNN과 같은 모양의 복소수 모델을 구현하여 사용하였다. ①과 ②는 학습 단계이며, ③은 성능 도출을 위한 테스트 단계이다.

  • ① 실측/시뮬레이션 SAR 영상 간의 변환을 수행하는 복소수 CycleGAN을 학습한다.
  • ② 시뮬레이션 SAR 표적 식별을 수행하기 위한 복소수 CNN을 시뮬레이션 SAR 영상만을 사용하여 학습한다.
  • ③ 테스트에 사용할 실측 SAR 영상을 ①에서 학습된 복소수 CycleGAN의 생성기 G를 통과시켜 시뮬레이션 SAR 영상과 유사한 영상으로 변환한다. 변환된 시뮬레이션 SAR 영상을 ②에서 학습된 복소수 CNN에 입력하여 시뮬레이션 SAR 표적 식별 결과를 얻는다.

Ⅳ. 실험결과 및 분석
4.1 SAMPLE 데이터셋

SAMPLE 데이터셋은 10개의 클래스에 대한 실측 SAR 영상과 시뮬레이션 SAR 영상 쌍으로 구성되어 있다. 이 중 실측 SAR 영상은 미 공군 연구소(AFRL, Air Force Research Laboratory)에서 공개한 MSTAR 데이터셋[15]을 그대로 사용하며, 시뮬레이션 SAR 영상의 경우에는 MSTAR 영상과 같은 조건(고각 14°~17°, 방위각 10°~80°, 0.3m 해상도)으로 생성되어 쌍으로 존재한다. 그림 4에서는 클래스별 영상 쌍의 모습을 볼 수 있다. 학습/테스트 셋은 MSTAR와 같은 방법으로 구성되어, 고각 14°~16° 영상은 학습, 고각 17° 영상은 테스트에 사용된다.


Fig. 4. 
SAR image pairs of SAMPLE dataset

표 1에는 클래스별 학습과 테스트에 쓰인 영상의 개수가 나타나 있는데, 해당 개수는 실측 SAR 영상의 개수를 의미하며, 시뮬레이션 SAR 영상은 쌍으로 같은 수만큼 존재한다.

Table 1. 
SAMPLE dataset configuration
Class Train Test Total
2S1 116 58 174
BMP2 55 52 107
BTR70 43 49 92
M1 78 51 129
M2 75 53 128
M35 76 53 129
M548 75 53 128
M60 116 60 176
T72 56 52 108
ZSU23 116 58 174
Totals 806 539 1345

시뮬레이션 SAR 영상 생성 기술의 발전으로 실측 SAR 영상과의 차이가 크게 줄었지만, 두 데이터 사이의 간극은 여전히 존재한다. 실제로 그림 4의 시뮬레이션 SAR 영상에서는 실측 SAR 영상에는 없는 그림자 잔상(화살표)이 존재하는 것을 볼 수 있다.

또한, 그림 5에서는 지나치게 밝은 산란점으로인해 부엽(sidelobe)이 크게 발생하거나, 표적의 전체적인 구조가 극명하게 다른 예시를 확인할 수 있다. 이러한 두 영상 간의 차이를 그림 6에서도 나타내고 있다. 왼쪽은 SAMPLE 데이터셋의 모든 영상을 평균하여 분포시킨 히스토그램이며, 오른쪽은 분산을 분포시킨 결과이다. 평균의 경우에는 전체적으로 시뮬레이션 SAR 영상이 실측 SAR 영상과 비교해 값이 작은 것을 볼 수 있는데, 이는 시뮬레이션 SAR 영상의 배경 클러터가 상대적으로 더 어두워서 나타나는 현상이다[16]. 분산의 경우에도 두 영상 간의 차이가 존재하는 것을 볼 수 있다. 이러한 분포 차이로 인해 성공적인 시뮬레이션 SAR 표적 식별을 위해서는 클래스별 표적의 특성을 학습함과 동시에, 두 데이터 간의 차이를 효과적으로 줄이는 과정이 필수적이다.


Fig. 5. 
Examples of difference between measured and simulated SAR images


Fig. 6. 
Histograms of SAMPLE dataset means and variances

4.2 복소수 CNN을 이용한 시뮬레이션 SAR 표적 식별 실험

시뮬레이션 SAR 표적 식별에 위상 정보의 유무가 미치는 영향을 확인하기 위해 실수 CNN과 복소수 CNN의 실험결과를 비교하였다. 정확한 비교를 위해 실수 CNN은 [10]에서 사용한 모델을 그대로 사용하였으며, 복소수 CNN은 같은 크기의 모델로 구현하여 사용하였다. 개발환경은 TensorFlow 기반의 Keras이며, 배치(Batch)의 크기는 16으로 설정하였다. 학습률(Learning rate)은 0.001로 고정하였고, 총 에폭(Epoch)은 60이다. 네트워크 학습에는 고각 14°~16°의 시뮬레이션 SAR 영상만을 사용하였으며, 고각 17°의 실측 SAR 영상으로 테스트하였다. 이때 학습 영상의 15%는 검증(Validation)용 영상으로 사용되었다.

그림 7에서는 실수 CNN과 복소수 CNN을 사용했을 때의 시뮬레이션 SAR 표적 식별 결과를 확인할 수 있다. 실수 CNN은 37.11%의 식별 성능을 보였으며, 복소수 CNN은 그보다 높은 43.41%의 식별 성능을 보였다.


Fig. 7. 
Simulated SAR target recognition results of real and complex-valued CNN

4.3 복소수 CycleGAN 기반의 시뮬레이션 SAR 표적 식별 실험

복소수 CNN을 통해 시뮬레이션 SAR 표적 식별 성능을 개선하였지만, 시뮬레이션 SAR 영상과 실측 SAR 영상 사이의 근본적인 차이를 줄이지는 못하였다. 이러한 문제는 CycleGAN을 이용한 이미지 변환을 통해 해결하였다. 이때 CycleGAN의 학습 데이터와 테스트 데이터를 분리하기 위해 5개 클래스(M35, M548, M60, T72, ZSU23)는 CycleGAN을 학습하는 데 사용하였으며, 나머지 5개 클래스(2S1, BMP2, BTR70, M1, M2)는 테스트에 사용하였다.

즉, CycleGAN은 5개 클래스(M35, M548, M60, T72, ZSU23)의 실측/시뮬레이션 SAR 영상 쌍을 이용하여 학습하였고, CNN은 나머지 5개 클래스(2S1, BMP2, BTR70, M1, M2)의 시뮬레이션 SAR 영상을 이용하여 학습하였다. 이후 5개 클래스(2S1, BMP2, BTR70, M1, M2)의 실측 SAR 영상을 CycleGAN에 입력하여 시뮬레이션 SAR 영상과 유사하게 변환하고, 변환된 영상을 CNN에 입력하여 식별 성능을 얻는다. CycleGAN 역시 TensorFlow 기반의 Keras 환경에서 개발되었으며, Keras에서 제공하는 기본 CycleGAN 프레임워크를 기반으로 구현되었다. 총 에폭은 200이며, 배치의 크기는 1로 설정하였고, 학습률은 100에폭 동안은 0.0002를 유지하고 이후 100에폭 동안은 0으로 감소하도록 설정하였다. 또한 식 (8)의 λ는 10으로 설정하였다.

표 2는 다양한 방법에 대한 시뮬레이션 SAR 표적 식별 결과이다. 실수 CNN만을 사용하였을 때는 31.18%의 정확도를 보였으며, 복소수 CNN만을 사용하였을 때는 36.12%의 정확도를 보였는데, 이러한 결과는 4.2절에서 10개 표적에 대해 실험한 결과와 비교해 상대적으로 낮은 성능이다.

Table 2. 
Comparison of simulated SAR target recognition results
Method Accuracy
Real-valued CNN 31.18%
Complex-valued CNN 36.12%
Real-valued CycleGAN + Real-valued CNN 36.50%
Complex-valued CycleGAN + Complex-valued CNN 42.59%

이는 그림 7에서 확인할 수 있듯이, 4.3절의 테스트에 사용된 앞선 5개 클래스(2S1, BMP2, BTR70, M1, M2)가 나머지 클래스보다 상대적으로 낮은 성능을 보이기 때문에 나타난 결과이다. 반면에 실수 CycleGAN으로 변환된 SAR 영상을 실수 CNN으로 식별하였을 때는 성능이 36.50%로 증가하였다. 또한 복소수 CycleGAN과 복소수 CNN의 조합을 사용하였을 때는 가장 높은 42.59%의 식별 성능을 보였다. 결과적으로 복소수 네트워크를 통해 SAR 영상의 크기 정보와 위상 정보를 함께 활용하고, CycleGAN을 통해 실측 SAR 영상과 시뮬레이션 SAR 영상 간의 차이를 줄임으로써 높은 식별 성능을 얻을 수 있었다.

4.4 복소수 CycleGAN을 이용한 SAR 영상 변환 결과

그림 8에서는 복소수 CycleGAN을 통해 변환된 시뮬레이션 SAR 영상의 결과를 비교하여 보여준다. 첫 번째 행은 실측 SAR 영상이며, 두 번째 행은 같은 조건으로 생성된 시뮬레이션 SAR 영상이다. 마지막 행은 복소수 CycleGAN을 통해 변환된 시뮬레이션 SAR 영상이다. 전체적으로 변환된 시뮬레이션SAR 영상이 실측 SAR 영상과 비교해 배경 클러터가 어두운 것을 확인할 수 있다. 이는 실제로 시뮬레이션 SAR 영상의 배경 클러터가 실측 SAR 영상에 비해 어두운 것을 학습하여 나온 결과로 볼 수 있다. 하지만 표적의 구조적인 차이는 큰 변화가 없고, 산란점의 위치만 조금씩 바뀌거나 뭉개지는 결과가 나타났다. 이는 표적의 클래스, 고각, 방위각 등이 변함에 따라 생성기가 변환해야 하는 표적 영역이 달라지기 때문에, 모든 경우에 알맞은 SAR 영상으로 변환하기보다는 평균에 가까운 변환을 보여주므로 나타나는 현상으로 보인다.


Fig. 8. 
Results of translated SAR images

그림 9는 서로 다른 세 종류의 영상들이 2차원 공간상에서 어떻게 분포하는지 t-SNE[17]를 이용해 보여주고 있다. t-SNE는 원본 데이터를 가장 잘 표현할 수 있도록 데이터의 차원을 줄이는 방법으로, 높은 차원의 복잡한 데이터를 2차원으로 축소해 시각화할 수 있다.


Fig. 9. 
t-SNE distribution of SAR images

즉, 그림 9의 x, y축은 세 종류의 영상들을 가장 잘 구분 지어 표현할 수 있는 두 벡터이다. 결과에서 볼 수 있듯이 기존의 실측 SAR 영상과 시뮬레이션 SAR 영상 간에는 상당한 차이가 존재하였다. 그에 비해 복소수 CycleGAN을 통해 변환된 시뮬레이션 SAR 영상(실측 SAR 영상을 시뮬레이션 SAR 영상과 유사하게 변환)은 실측 SAR 영상보다 실제 시뮬레이션 SAR 영상과 가깝게 분포하는 것을 볼 수 있다. 결과적으로 복소수 Cycle GAN이 실측 SAR 영상과 시뮬레이션 SAR 영상 사이에 존재하는 분포 차이를 효과적으로 줄였음을 확인할 수 있다.

앞선 그림 8, 9의 결과에서는 SAR 영상들의 크기 정보를 비교하여 보여주었다. 그러나 본 논문에서 제안하는 복소수 CycleGAN은 크기 정보와 함께 위상 정보도 활용하기 때문에 위상 정보의 변화를 확인할 수 있다. 표 3은 테스트에 사용된 5개 클래스 영상에 대한 위상 정보의 유클리드 거리(Euclidean distance) 변화를 나타내고 있다. 두 번째 열은 실측 SAR 영상과 시뮬레이션 SAR 영상 간의 위상 정보 차이를 거리로 표현한 것이며, 세 번째 열은 변환된 시뮬레이션 SAR 영상과 실제 시뮬레이션 SAR 영상 간의 위상 정보 차이를 나타낸다. 결과에서 볼 수 있듯이 위상 정보에서도 변환된 시뮬레이션 SAR 영상이 실제 시뮬레이션 SAR 영상과 더 가까워졌음을 확인하였다.

Table 3. 
Phase difference between simulated SAR images
Class Measured images Translated images
2S1 164.14 163.04
BMP2 164.05 161.42
BTR70 164.61 159.40
M1 163.95 160.97
M2 164.29 161.10


Ⅴ. 결론 및 향후 과제

시뮬레이션 기법을 통해 SAR 영상을 생성하여 부족한 실측 SAR 영상을 보완한 딥러닝 기반 SAR 표적 식별 알고리즘들이 등장하였으나, 두 영상 간의 차이로 인해 시뮬레이션 SAR 영상만으로 학습된 네트워크는 낮은 식별 성능을 보였다. 이러한 문제점을 극복하고자 본 논문에서는 복소수 네트워크와 CycleGAN 기반의 이미지 변환 방법을 결합하여 시뮬레이션 SAR 표적 식별을 수행하였다. 실험을 통해 SAMPLE 데이터셋에서 시뮬레이션 SAR 표적 식별 성능이 개선됨을 확인하였다. 또한 복소수 CycleGAN을 통해 변환된 시뮬레이션 SAR 영상이 실제 시뮬레이션 SAR 영상과 크기와 위상 모두 유사함을 확인하였으며, t-SNE 분포를 통해 특징 공간에서의 차이 또한 줄어드는 것을 확인하였다. 이러한 본 논문의 결과를 보다 개선하기 위한 향후 과제는 다음과 같다.

  • ① 복소수 CycleGAN을 통해 시뮬레이션 SAR 표적 식별 성능을 개선하였지만, 여전히 MSTAR 데이터셋과 같은 실측 SAR 영상만으로 학습한 결과와는 큰 성능 차이를 보인다. SAR 영상 전처리, 최신 네트워크 구조 적용 등의 방법을 통해 성능 개선을 고려할 수 있다.
  • ② 복소수 CycleGAN을 이용해 변환된 시뮬레이션 SAR 영상에서 배경 클러터가 어두워지거나 산란점이 변하는 모습은 있었지만, 표적의 구조는 큰 변화가 없었다. 이는 앞서도 언급하였듯이, 학습 과정에서 배운 다양한 경우의 수를 평균적으로 반영하여 영상 변환을 수행하기 때문에 나타나는 현상으로 보인다. 이는 CycleGAN 학습에 클래스, 고각, 방위각 등의 정보를 활용하는 방법을 통해 개선할 여지가 있다.
  • ③ 본 논문에서는 CycleGAN의 학습과 CNN의 학습을 같은 SAMPLE 데이터셋 내에서 클래스를 나누어 수행하였으나, 서로 다른 플랫폼으로부터 얻어진 데이터셋에 적용하여 범위를 더욱 확장할 수 있다.

References
1. A. Krizhevsky, I. Sutskever, and G. E. Hinton, "Imagenet Classification with Deep Convolutional Neural Networks", Advances in Neural Information Processing Systems, Vol. 25, pp. 1106-1114, Dec. 2012.
2. J. J. Kim, and C. B. Kim, "Implementation of Robust License Plate Recognition System using YOLO and CNN", Journal of KIIT, Vol. 19, No. 4, pp. 1-9, Apr. 2021.
3. S. A. Wagner, "SAR ATR by Combination of Convolutional Neural Network and Support Vector Machine", IEEE Transactions on Aerospace and Electronic Systems, Vol. 52, pp. 2861-2872, Dec. 2016.
4. Y. Xie, W. Dai, Z. Hu, Y. Liu, C. Li, and X. Pu, "A novel convolutional neural network architecture for SAR target recognition", Journal of Sensors, Vol. 2019, May 2019.
5. U. K. Majumder, E. P. Blasch, and D. A. Garren, "Deep Learning for Radar and Communications Automatic Target Recognition", Artech House, pp. 150-155, Jul. 2020.
6. K. E. Dungan, C. Austin, J. Nehrbass, and L. C. Potter, "Civilian vehicle radar data domes", in Proceedings of SPIE, Vol. 7699, pp. 242-253, Apr. 2010.
7. A. W. Doerry, "Basics of polar-format algorithm for processing synthetic aperture radar imagery", Sandia Report, SAND 2012-3369, Unlimited Release, May 2012.
8. T. Scarnati and B. Lewis, "A deep learning approach to the synthetic and measured paired and labeled experiment (SAMPLE) challenge problem", in Proceedings of SPIE, Vol. 10987, pp. 29-38, May 2019.
9. J. Y. Zhu, T. Park, P. Isola, and A. A. Efos, "Unpaired image-to-image translation using cycle-consistent adversarial networks", in Proceedings of IEEE International Conference on Computer Vision, Venice, Italy, pp. 2223-2232, Oct. 2017.
10. B. Lewis, T. Scarnati, E. Sudkamp, J. Nehrbass, S. Rosencrantz, and E. Zelnio, "A SAR dataset for ATR development: The synthetic and measured paired labeled experiment (SAMPLE)", in Proceedings of SPIE, Vol. 10987, pp. 39-54, May 2019.
11. C. Trabelsi, O. Bilaniuk, Y. Zhang, D. Serdyuk, S. Subramanian, J. F. Santos, S. Mehri, N. Rostamzadeh, Y. Bengio, and C. J. Pal, "Deep complex networks", International Conference on Learning Representations, Feb. 2017.
12. I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, and Y. Bengio, "Generative adversarial nets", Advances in Neural Information Processing Systems, Vol. 11, pp. 2672-2680, Dec. 2014.
13. P. Isola, J. Y. Zhu, T. Zhou, and A. A. Efros, "Image-to-image translation with conditional adversarial networks", in Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, HI, USA, pp. 1125-1134, Jul. 2017.
14. O. Ronneberger, P. Fischer, and T. Brox, "U-net: Convolutional networks for biomedical image segmentation", in International Conference on Medical Image Computing and Computer-Assisted Intervention, Vol. 9351, pp. 234-241, Oct. 2015.
15. T. Ross, S. Worrell, V. Velten, J. Mossing, and M. Bryant, "Standard SAR ATR evaluation experiments using the MSTAR public release data set", in Proceedings of SPIE, Vol. 3370, pp. 566-573, Sep. 1998.
16. J. Godwin, M. Moore, D. Waagen, D. Hulsey, and R. Conner, "Statistical analysis of SAR signature domains", in Proceedings of SPIE, Vol. 11393, pp. 125-138, May 2020.
17. L. Maaten and G. Hinton, "Visualizing Data using t-SNE", Journal of Machine Learning Research, Vol. 9, pp. 2579-2605, Aug. 2008.

저자소개
최 여 름 (Yeoreum Choi)

2015년 2월 : 한국과학기술원 전기 및 전자공학과(공학사)

2017년 2월 : 한국과학기술원 전기 및 전자공학과(공학석사)

2017년 2월 ~ 현재 : 국방과학연구소 연구원

관심분야 : SAR 표적 식별, 딥러닝 표적 식별, 딥러닝 이미지 변환