Korean Institute of Information Technology

Home

The Journal of Korean Institute of Information Technology - Vol. 20 , No. 10

[ Article ]
The Journal of Korean Institute of Information Technology - Vol. 20, No. 10, pp. 1-11
Abbreviation: Journal of KIIT
ISSN: 1598-8619 (Print) 2093-7571 (Online)
Print publication date 31 Oct 2022
Received 25 Jul 2022 Revised 29 Sep 2022 Accepted 02 Oct 2022
DOI: https://doi.org/10.14801/jkiit.2022.20.10.1

딥러닝 기반 활주로 균열 식별
김태우* ; 하용훈**
*국방대학교 국방과학학과 무기체계전공 석사과정
**국방대학교 국방과학학과 무기체계전공 교수(교신저자)

Deep Learning based Runway Crack Identification
Taewoo Kim* ; Yonghoon Ha**
Correspondence to : Yonghoon Ha Dept. of Defence Science, Korea National Defence University, Chungnam, Korea Tel.: +82-41-831-5323, Email: yonghoonha@korea.kr


초록

본 연구의 목적은 전시 및 평시 공군 항공전력의 효율적인 운영을 위하여 딥러닝을 이용한 활주로 균열 식별 방안을 제공한다. 현재 사용되는 활주로 균열 식별은 사람의 눈에 의존하여 많은 인력과 시간, 비용이 소모되는 문제점이 있다. 위 문제를 해결하기 위해 드론을 활용하여 군용 활주로 영상을 촬영하고 이를 딥러닝을 통해 균열을 식별하였다. 활주로에서 드론으로 촬영한 영상을 라벨링 작업을 통해 데이터셋을 생성하며, 이 데이터셋에 딥러닝 모델을 적용하여 학습 정확도를 평가하였다. 학습된 모델의 검증 결과로 활주로 균열을 식별하고, 균열의 위치와 크기를 예측하여 실제 균열과 비교하였다. 연구를 통하여 전시 및 평시 균열 식별의 정확도와 신뢰도를 높임으로써 자원의 소모를 줄임과 동시에 항공전력 운영 효율을 높일 것으로 예상한다.

Abstract

The purpose of this study is to provide a method for identifying runway cracks using deep learning for the efficient operation of air power in wartime and peacetime. The current identification method, which mainly depends on human eyes, requires a lot of time, money and manpower. In order to prevent the consumption of such resources, a drone was utilized to take runway images and cracks were identified from the images via deep learning. Data sets were generated through labeling of the images, and the deep learning model was applied to them to evaluate the learning accuracy. As a result of the verification of the trained model, runway cracks were identified, and also the location and size of the cracks were predicted and compared with the actual cracks. Through this research, it is expected to reduce the consumption of resources and increase the efficiency of air power operation by improving the accuracy and reliability of the identification of runway cracks in wartime and peacetime.


Keywords: deep learning, CNN, Mask R-CNN, runway, crack, drone

Ⅰ. 서 론

대한민국 공군은 짧은 역사 속에서도 눈부신 발전을 통해 최첨단 항공기와 무기들을 보유하며 동북아를 넘어서서 세계에서도 높은 수준의 공군력을 보유하고 있다. 최첨단 항공기와 무기를 보유하고 있지만, 이런 항공자산을 운영하는 활주로 관리 시스템은 고전적인 방법을 고수하고 있다. 이에 공군에서도 ‘4차 산업혁명 시대 스마트한 공군 건설’ 계획의 일환으로 4차 산업혁명 기술을 적용한 『지능형 스마트 비행단』 사업을 2017년부터 진행하고 있다.

그림 1과 같이 지능형 스마트 비행단은 기지 내 컴퓨터, CCTV, 무인항공기 등 개별 운영 체계 및 장비를 네트워크 중심으로 통합하여 항공기, 시설물, 장비 등의 작전상황을 언제, 어디서든 입체적으로 통제하는 ICT 기반 첨단 비행단이다[1].


Fig. 1. 
InteIntelligent smart wing[2]

본 논문에서는 지능형 스마트 비행단 사업 중에서 항법시설 점검 드론의 활주로 균열 식별에 대한 연구를 진행한다. 현재 공군에서 활주로의 균열을 식별하기 위한 방법은 많은 인원의 육안에 의존하고 있다. 이는 수십 km에 달하는 활주로 구역에 적용하기에는 무리가 있을 뿐만 아니라 불규칙적으로 다수의 항공자산들을 운영하기에 주기적이고 체계적인 활주로 점검이 불가능하다. 또한, 일정하고 동일한 활주로 표면의 균열 위치를 전달 또는 기록하기에 현재의 점검자의 육안과 기억에 의존하는 방법은 신뢰도가 부족할 수 있다.

본 논문에서는 드론을 이용하여 활주로 영상을 촬영하고 데이터의 라벨링 과정을 통하여 데이터셋을 생성하였다. 이 데이터셋을 딥러닝 모델 중 Mask R-CNN에 적용하여 학습을 통해 얻어진 학습모델에 새로운 활주로 영상을 적용하여 활주로 균열 식별 성능을 분석하였다. 추가하여, 드론 촬영시의 위치자료를 통하여 활주로 균열 위치 및 크기 파악을 실시하였다.

본 논문의 구성은 다음과 같다. 2장에서는 관련된 기존의 연구들을 소개하였고, 3장에서는 데이터 수집 및 데이터 라벨링 과정을 소개하였다. 4장에서는 실험환경 소개와 2가지의 학습모델 분석 결과를 통해 최적의 모델을 확인하였으며, 최적의 모델을 통한 학습 결과 검증을 통하여 활주로 균열 식별과 균열의 크기 및 위치를 검증하였다. 마지막으로 5장에서 결론 및 향후 발전과제를 제시하였다.


Ⅱ. 관련 연구

활주로 균열은 주로 그림 2처럼 포장면 사이의 시공이음부에서 발생하게 된다. 일반적으로 아스팔트 포장에서의 시공이음부는 다짐이 불충분하게 되기 쉽고 소정의 다짐도를 얻기 어렵기 때문에 기본적으로 취약한 구조를 가질 수밖에 없으며, 취약한 구조의 시공이음부에 항공기나 차량과 같은 중하중이 재하될 경우 시공이음부에는 쉽게 균열이 생기게 된다[3].


Fig. 2. 
Crack in runway construction joints[3]

이러한 균열부에 물이 침투하게 되면, 박리현상을 유발하게 되고, 이것은 또다시 포트홀로 급격하게 진전되어 결국 포장의 파손이 가속화 하게 되는데, 항공기의 안전운항에 심각한 영향을 끼치며 대형항공사고를 유발할 수 있는 직접적인 원인이 된다[4].

2.1 민간 공항에서의 균열 식별

지상에서 활주로 표면의 식별을 위한 방법으로는 육안으로 확인하는 방법이 많이 사용되고 있으며, 민간 공항에서는 차량을 이용하여 영상을 확보하여 균열을 식별하는 방법이 사용되고 있다. 그림 3과 같은 자동포장상태 조사장비[5]를 사용한다.


Fig. 3. 
Crack investigation vehicle[5]

하지만, 좌우 3.5m 정도의 폭을 조사할 수 있기에 표준규격 활주로를 8회 왕복 조사를 수행하여야 활주로 표면의 영상을 확보할 수 있으며, 균열의 중복 식별 및 균열의 위치 오차에 따른 애로사항이 있다. 이 방법은 군에서는 사용하지 않으며, 민간 공항에서 주로 사용하고 있다.

2.2 이미지 객체 인식을 이용한 균열 식별

최근 딥러닝 모델 중 CNN(Convolutional Neural Networks)[6] 기반 모델들이 객체 식별의 정확도를 획기적으로 향상시키고 있다[7]. CNN은 영상 인식에서 기존 신경망이 가지는 문제점을 개선하기 위해 합성곱 계층을 이용한다[8]. CNN 기반 모델 중에 Mask R-CNN[9]그림 4와 같이 검출된 객체에 마스킹을 통해서 객체들의 특징을 구분하는 것이 가능하다.


Fig. 4. 
Mask R-CNN framework[9]

딥러닝을 이용한 방법으로 [10]에서는 고해상도 항공 영상에서의 도로 균열을 검출하는 연구를 수행하였다. 다양한 도로 균열의 형태에서 평균 73.5%의 정확도로 검출하였으며 특정 형태의 균열 영역도 예측하는 것을 확인할 수 있었다.

항공자산은 아주 미세한 활주로 균열이라도 이착륙시의 속도로 인해서 중사고로 이어질 수 있다. 또한, 수십 톤에 달하는 항공자산의 이착륙 충격에 의해서 균열이 쉽게 발생할 수 있으며, 이를 방치하게 된다면 이어서 착륙하는 항공기는 위험한 상황에 노출되게 된다. 따라서, 본 논문에서는 도로 균열과 다른 군 활주로 균열의 차별점에 착안하여 연구를 진행하였다. 미세한 균열을 검출하기 위하여 드론의 촬영 높이 및 영상의 크기의 변화를 통해서 정확도를 분석하였으며, 드론의 위치정보를 활용하여 waypoint 경로 설정을 통한 신속한 비행 및 균열의 위치와 크기 예측에 초점을 두고 진행하였다.


Ⅲ. 데이터 수집 및 실험환경 구성
3.1 데이터 수집

활주로 균열 데이터 수집을 위해서 비상활주로인 제천비행장을 사용하였으며 제원은 표 1과 같다. 모산동과 고암동에 걸쳐 있는 18만여 m²규모의 제천비행장은 1950년대 비행 훈련장으로 건설되었으며, 이후 1975년 재포장 공사를 실시하였다.

Table 1. 
Emergency runway specification in Jecheon[11]
Name Jecheon airfield
ICAO RK 60
Location Jecheon city, hungcheongbuk-do
Direction 10L / 28R
Length 1129 × 24.5m
Material asphalt, concrete

항공 영상 촬영은 표 2와 같이 상업용 드론인 DJI 사의 MAVIC MINI 2[12] 드론을 이용하였다. 촬영은 다양한 환경에서의 데이터를 확보하기 위해서 표 3과 같이 5회에 걸쳐서 다른 시간대에 촬영하였다.

Table 2. 
Specifications of a commercial drone[12]
Name DJI MAVIC MINI 2
Size 245 × 289 × 56mm
Camera 1/2.3" CMOS
Resolution 4000 × 3000

Table 3. 
Data collection environment
1st 2nd 3rd 4th 5th
Time 0900 1100 1300 1500 1700
Wind direction 144° 214° 196° 259° 279°
Wind speed (m/s) 0.5 2.8 4.0 4.8 2.9
Temperature (℃) 2.5 5.3 8.9 10.3 10.1
Sun angle 22° 39° 45° 34° 14°

촬영 방법은 그림 5와 같이 2가지로 진행하였다. 첫 번째 촬영 방법은 그림 5(a)와 같이 드론의 waypoint mode를 이용하여 활주로 중앙선을 따라서 30m 높이에서 10km/h의 속력으로 활주로 좌우 전체폭에 대하여 촬영을 진행하였다. 그림 6과 같이 4초 간격 연속촬영으로 활주로 지면을 50% 중복 촬영하였으며, 촬영 사이의 간격은 10m이다. 1회 촬영에 약 6분의 시간이 소요되었으며, 120장의 사진 데이터를 확보하였다. 총 5회의 촬영으로 600장의 사진데이터를 확보하였다.


Fig. 5. 
Runway data collection


Fig. 6. 
Data collection interval

두 번째 촬영 방법은 그림 5(b)과 같이 드론의 waypoint mode를 이용하여 활주로 좌우폭 1/4 지점을 따라서 15m 높이에서 10km/h의 속력으로 활주로 좌우 반폭에 대하여 촬영을 진행하였다. 1회 왕복으로 촬영 진행하여 첫 번째 촬영방법의 2배인 12분에 걸쳐서 240장의 사진을 확보하였다. 총 5회의 촬영으로 1200장의 사진 데이터를 확보하였다.

이렇게 구성된 2종류의 촬영 데이터에서 그림 7과 같이 활주로의 5/6에 해당하는 부분은 학습 및 검증 데이터 셋으로 사용하였으며, 나머지 활주로 1/6에 해당하는 부분은 테스트 데이터 셋으로 구성하였다. 최종적으로 훈련에 사용될 활주로 전체폭에 대한 데이터 1과 활주로 좌우 반폭에 대한 데이터 2에서 각각 학습 데이터 세트 크기 400, 검증 데이터 세트 크기 100, 테스트 데이터 세트 크기 100으로 구성하였다.


Fig. 7. 
Data configuration

활주로 균열의 위치를 정확하게 식별하고자 드론의 카메라 각도는 직하방(-90°)을 유지한 채로 촬영하였으며, GNSS(GPS+GLONASS+GALILEO)를 사용하여 16개 이상의 위성에서 정보를 수신받는 상태에서 촬영하였다. 촬영 영상마다 위도, 경도의 소수점 아래 16자리까지 구분되어 GNSS 정보를 이용하여 cm정도의 활주로 균열 위치 식별 및 균열 크기 파악이 가능하다.

3.2 데이터 라벨링

본 논문에서 VGG Image Annotator Tool[13]을 통해 각각의 이미지에 대한 라벨링 작업을 하였다. 그림 8은 활주로 촬영 데이터에 VGG Image Annotator Tool을 사용하여 활주로 균열을 ‘crack’으로 라벨링하는 과정을 나타낸 화면이다. 그림 8(a)그림 8(c)의 활주로 원본 영상에서 각 균열에 ‘crack’으로 라벨링 과정을 진행하여 그림 8(b)그림 8(d)와 같이 완성된다.


Fig. 8. 
Labeling data

3.3 실험환경

본 논문은 Mask R-CNN 모델을 이용하여 활주로 균열을 식별하였는데, GitHub에서 제공하는 python용 Mask R-CNN 모델 코드[14]를 이용하여 수행하였다.

학습 횟수는 50회를 적용하였으며, 학습 환경은 표 4와 같이 구글에서 제공하는 코랩을 사용하였다. 총 학습시간은 활주로 전체폭에 대한 데이터 1은 약 16.45시간, 활주로 좌우 반폭에 대한 데이터 2는 약 18.32시간이 소요되었다.

Table 4. 
Experimental environment
Name Google colab pro plus
CPU Intel Xeon(R) CPU @ 2.30GHz × 2
RAM 52 GB
GPU NVDIA Tesla P100 16 GB)


Ⅳ. 결과 분석
4.1 학습 결과 분석

본 연구의 테스트 데이터 셋은 학습 및 검증 데이터 셋으로 사용되지 않은 활주로의 1/6부분에 해당되는 100개의 사진 데이터로 구성하였다. 모델의 평가 방법은 객체 탐지 평가 지표로 주로 사용되는 mAP(mean Average Precision)를 사용하였으며, IoU(Intersection Over Union)은 0.5(50%)를 적용하였다. 활주로 전체폭과 활주로 좌우 반폭으로 학습시킨 2개의 모델의 학습데이터 셋에 대한 정확도는 표 5그림 9과 같다.

Table 5. 
Accuracy for learning data sets
Time(s) Loss Accuracy(mAP)
Data 1 59220 0.2132 0.923
Data 2 65952 0.1982 0.952


Fig. 9. 
Learning outcomes

그림 9(a)에서 반복횟수(epoch)가 적은 구간에서는 2개 모델의 손실(Loss)값이 편차가 컸지만, 반복횟수가 진행되면서 손실값이 일정하게 0.2로 수렴되는 점을 확인하였다. 최종적으로 모델의 손실값은 활주로 전체폭인 Data 1은 0.2132였으며, 활주로 좌우 반폭인 Data 2는 0.1982였다.

반복횟수별 정확도 변화를 나타낸 그림 9(b)에서 초기에는 두 개의 모델이 비슷한 양상의 정확도 상승을 보여주는데, 반복횟수가 증가하면서 Data 1 모델과 Data 2 모델의 정확도는 각각 92%와 95%에 수렴하는 것으로 나타났다. 결론적으로 정확도 측면에서 활주로 좌우 반폭에 대한 데이터로 학습한 Data 2 모델이 다소 높은 성능을 나타냈는데, 이는 Data 1과 Data 2의 촬영 고도 차이에 따른 균열 사진 데이터의 질적 차이와 이와 관련한 라벨링 작업 처리 방법 기인한 것으로 판단된다.

4.2 학습 모델 검증

100개의 테스트 데이터 셋에서 군공항의 균열 분류 기준을 근거로 다음과 같이 3가지로 분류하였다. 균열의 크기로 30cm 이하, 약 30cm 초과 100cm 이하, 100cm 초과로 분류하였다. 육안으로 식별된 균열은 30cm 이하 307개, 약 30cm 초과 100cm 이하 132개, 100cm 초과 58개이며 테스트 데이터 셋에 대한 정확도는 표 6과 같이 분석하였다.

Table 6. 
Accuracy for test data set
Crack size Data 1 model accuracy (%) Data 2 model accuracy (%)
~ 30cm 72.31 (222 / 307) 82.73 (254 / 307)
30cm ~ 100cm 77.27 (102 / 132) 88.63 (117 / 132)
100cm ~ 91.37 (53 / 58) 94.82 (55 / 58)
TOTAL 75.85 (377 / 497) 85.71 (426 / 497)

Data 1 모델과 Data 2 모델의 식별 정확도 차이가 확연한 부분은 30cm 이하 균열과 약 30cm 초과 100cm 이하로 10% 이상의 차이를 보였다. Data 1 모델의 균열 크기 30cm 이하 정확도는 72.31%로 측정한 정확도 중에서 제일 낮은 식별 정확도를 보였으며, 제일 높은 식별 정확도 수치는 Data 2 모델의 균열 크기 100cm 초과로 94.82%를 보였다.

Data 1 모델이 현저하게 식별정확도가 낮은 것은 두 모델의 드론 사진 촬영에 의한 데이터의 질적 차이로 기인한 것으로 판단된다. 따라서, 높은 균열 식별 정확도를 얻기 위해서는 균열과 근접한 거리에서의 데이터 확보가 필요하다.

항공영상에서의 도로 균열 검출 연구[10]에서는 평균 73.5% 균열 식별 정확도를 보인 반면 본 연구에서 Data 2 model의 균열 식별 정확도는 평균 85.7%를 보였다. 그러나 [10]에서는 본 연구와 달리 100m 상공에서의 영상 데이터를 활용하였기 때문에 식별 정확도 차이는 데이터의 질적 차이에 기인한 것으로 판단된다. 또한, [10]에서는 학습 및 검증 데이터 셋 200장, 테스트 데이터 셋 60장으로 본 연구의 학습 및 검증 데이터 셋 500장, 테스트 데이터 셋 100장으로 데이터의 양적 측면에서도 차이를 보인다. 따라서, 데이터의 질적 및 양적 차이로 인한 균열 식별 정확도의 변화로 판단된다.

학습 모델에 적용한 테스트 데이터 결과는 그림 10과 같다.


Fig. 10. 
Runway crack verification results

그림 10(a)에서 균열에 대해서는 ‘crack’으로 인지하며 식별 정확도는 94.9% ~ 97.0%로 확인되었다. 학습 모델이 시공이음부의 직선 형태를 균열로 인식하지는 않았으며, 미세한 균열을 제외하고 육안으로도 확인 가능한 크기에 대해서는 균열로 인식함을 확인하였다. 비정상적인 균열 형태는 그림 10(b), (c), (d)와 같다.

첫 번째, 그림 10(b)에서 학습 모델은 원형의 균열에 대해서는 여러 가지 직선 형태의 균열로 인식함을 알 수 있다. 두 번째, 그림 10(c)에서 면 형태의 대형 균열에 대해서는 비정상적으로 인식하였는데, 이는 학습 라벨링 과정에서 선을 기준으로 실시하였기 때문인 것으로 판단된다. 세 번째, 그림 10(d)에서 활주로 표면의 명암이 바뀌는 부분에서 각각 다른 균열로 인식하였다.

이렇게 찾아낸 균열의 실제 활주로에서의 위치 검증을 위하여 드론으로 획득한 GNSS 정보를 그림 11처럼 매칭하였다. 또한, 드론이 일정한 높이에서 촬영한다는 점을 활용하여 학습 모델이 식별한 균열 크기를 예측하고 실제 활주로에서의 균열과 비교하였다. 10개의 균열에 대해서 검증한 결과 위치는 정확하게 확인 가능하였으며, 균열의 크기도 ± 5cm 오차범위 내에서 확인되었다.


Fig. 11. 
GNSS data by runway point

결과적으로 영상 한 장의 균열을 찾아내는데는 약 8~10초 정도가 필요하였으며, 활주로 좌우 반폭으로 촬영되는 Data 2 학습모델은 1회 비행 시에 활주로의 균열을 찾아내는데는 평균 18분이 소요되었다.

본 논문의 학습 모델을 실제 항공 작전을 수행하는 공군 활주로에서 적용한다면 드론의 촬영자료를실시간으로 전송받아서 약 18분만에 균열 식별 및 크기 예측이 가능하다. 또한, 드론의 속도를 높이고 활주로 중복 촬영 부분을 최소화한다면, 약 9분으로 활주로 균열 점검이 가능하다. 이는 현재 공군 비행장에서 육안으로 점검 시에 1회 약 60분 정도가 소모되는 것과 비교하여 1회 약 9분으로 활주로 점검이 가능하여 1회 활주로 점검 시간이 85% 감소하는 효과를 보인다. 또한, 공군 비행장에서 1일 3회 점검을 실시하므로 1일에 약 153분의 점검 시간을 감소시킬 수 있다. 점검 시간 감소를 통해 추가적인 비행 소티를 창출할 수 있으며 항공기 이착륙 간 여유 시간을 확보함으로써 비행 안전에도 기여할 수 있다. 무엇보다 전시 또는 평시 공군의 전력 운용 간 신속한 균열 식별 및 보수를 통해서 전비 태세를 확립하고 작전 수행 능력을 향상시킬 수 있을 것이다.


Ⅴ. 결 론

본 논문에서는 드론을 이용하여 활주로 데이터를 확보하고 라벨링을 통하여 2개의 데이터 셋을 딥러닝 중 이미지 식별 모델인 Mask R-CNN 모델을 이용하여 학습하였다. 학습의 결과로 활주로 좌우 반폭에 대한 이미지로 효율적인 균열 식별이 가능하였으며, 이 활주로 균열 식별 모델을 적용하여 균열의 식별과 크기를 예측할 수 있었다. 그러나, 균열의 라벨링을 직선의 형태로만 진행하여 원형 및 면 형태의 균열에 비정상적인 인지를 하였는데, 향후 곡선 및 폭파구와 같은 2차원의 균열에 대한 데이터를 확보하여 학습시킨다면 인식률이 향상될 것으로 판단된다.

공군 작전 및 전비태세 측면에서 본 논문의 시사점은 다음과 같다.

첫째, 인력으로 수행되던 균열 점검을 드론으로 수행하여 언제든지 적시적으로 활용할 수 있음으로 인적, 시간적, 공간적 제약을 없앨 수 있다.

둘째, 신속 정확한 균열 식별을 통해서 항공전력 운용간에 연속적인 항공작전 수행 및 균열로 인한 중사고를 예방할 수 있다.

셋째, 전시에 탄도탄 및 화생방 상황에서 활주로 점검을 위한 인명피해를 최소화 할 수 있다.

향후 본 연구의 실제 작전 활용 여부를 판단하기 위해 군 공항 측과 함께 활주로 균열 식별 정확도 및 적용 가능성에 관한 추가적인 연구가 진행되어야 할 것이다. 또한, 활주로 및 유도로에서 항공기 엔진이나 기체 등을 파손시킬 가능성이 있는 FOD(Foreign Object Damage) 식별 연구를 연계하여 활주로 균열 및 이물질을 동시에 식별할 수 있는 활주로 점검 드론에 대한 연구를 병행한다면 심층적인 연구가 될 것으로 판단된다.


References
1. Air Force Intelligent Smart Squadron, http://rokaf.airforce.mil.kr/smartwing/3100/subview.do. [accessed: May 05, 2022]
2. Air Force Press Release, http://rokaf.airforce.mil.kr/airforce/350/subview.do. [accessed: May 05, 2022]
3. T. S. Heo, D. J. Kim, and J. S. Yoo, "A Study on the Wide Formation Pavement for Improvement of Runway Durability and Safety of Incheon International Airport Stage 2 Construction", Korean Society of Civil Engineers, pp. 3156-3159, 2009.
4. S. H. Cho, T. H. Kang, M. R. Jo, Y. C. Seo, and S. A. Kwon, "Seismic Techniques for the Integrated Assessment of Structural Integrity of Concrete Runway", Journal of the Korean Geotechnical Society, Vol. 21, No. 4, pp. 51-63, Jun. 2005.
5. J. H. Lee, J. R. Kim, H. C. Mun, and N. H. Cho, "Case Study on Deciding a Time for Repairing Asphalt Pavement of Incheon International Airport", Journal of the Korean Road Society, Vol. 15, No. 6, pp. 49-60, Dec. 2013.
6. A. Krizhevsky, I. Sutskever, and G. Hilton, "ImageNet classification with deep convolutional neural networks", Communications of the ACM, Vol. 60, No. 6, pp. 84-90, Jun. 2017.
7. P. Sermanet, D. Eigen, X. Zhang, M. Mathieu, R. Fergus, and Y. LeCun, "OverFeat: Integrated recognition, localizationand detection using convolutional networks", The International Conference on Learning Representations, Vol. 1, Dec. 2013.
8. Y. Lecun, L. Bottou, Y. Bengio, and P. Haffner, "Gradientbased learning applied to document recognition", Institute of Electrical and Electronics Engineers, Vol. 86, No. 11, pp. 2278-2324, Nov. 1998.
9. K. He, G. Gkioxari, P. Dollar, and R. Girshick, "Mask R-CNN", Institute of Electrical and Electronics Engineers, pp. 2961-2969, 2017.
10. M. H. Lee, K. W. Nam, and C. W. Lee, "Crack Detection on the Road in Aerial image using Mask R-CNN", Journal of the Korea Industrial Information Systems Research, Vol. 24, No. 3, pp. 23-29, Jun. 2019.
11. Jecheon City Hall, https://www.jecheon.go.kr. [accessed: May 05, 2022]
12. DJI, https://www.dji.com/kr/mavic. [accessed: May 05, 2022]
13. Visual Geometry Group, https://www.robots.ox.ac.uk/~vgg/software/via. [accessed: May 05, 2022]
14. MASK R-CNN of GITHUB, https://github.com/matterport/Mask_RCNN. [accessed: May 05, 2022]

저자소개
김 태 우 (Taewoo Kim)

2010년 3월 : 공군사관학교 전산통계학과(이학사)

2021년 1월 ~ 현재 : 국방대학교 국방과학학과 무기체계전공 석사과정

관심분야 : 표적탐지, 인공지능, 영상처리

하 용 훈 (Yonghoon Ha)

1994년 2월 : 해군사관학교 해양학과(이학사)

1997년 2월 : 서울대학교 해양학과(이학사)

2000년 12월 : 미국 Naval Postgraduate School 공학음향학(공학석사)

2009년 2월 : 서울대학교 조선해양공학(공학박사)

2019년 3월 ~ 현재 : 국방대학교 국방과학학과 무기체계전공 부교수

관심분야 : 표적탐지 및 추적, 수중음향 및 대잠전 M&S, 신호처리