Korean Institute of Information Technology

Home

The Journal of Korean Institute of Information Technology - Vol. 19 , No. 12

[ Article ]
The Journal of Korean Institute of Information Technology - Vol. 19, No. 12, pp. 115-121
Abbreviation: Journal of KIIT
ISSN: 1598-8619 (Print) 2093-7571 (Online)
Print publication date 31 Dec 2021
Received 22 Nov 2021 Revised 13 Dec 2021 Accepted 16 Dec 2021
DOI: https://doi.org/10.14801/jkiit.2021.19.12.115

드론 활용 교량 안전점검을 위한 딥러닝 균열 분석에 관한 연구
최대영* ; 백승현** ; 김영규** ; 정상우* ; 김대년***
*경북IT융합산업기술원 융합연구팀 연구원(교신저자)
*경북IT융합산업기술원 융합연구팀 연구원
**경북IT융합산업기술원 융합연구팀 선임연구원
***경북IT융합산업기술원 융합연구팀 책임연구원

Deep-Learning Crack Analysis for Visual-Safety Inspection of Bridge by Drones
Daeyoung Choi* ; Seung Hyun Paik** ; Young-Kyu Kim** ; SangWoo Jung* ; Dae-Nyeon Kim***
Correspondence to : Daeyoung Choi Gyeongbuk Institute of IT Convergence Industry Technology, 106-ho, 25, 12-gil, Gongdan 9-ro, Jinrang-eup, Gyeongsan-si, Gyeongbuk, 38463, S. Korea Tel:+82-53-245-5040, Email: dychoi@gitc.or.kr

Funding Information ▼

초록

기존 교량의 안전점검 및 조사는 점검자의 인력이 투입되어 안전, 시간, 비용들에 대한 한계들이 존재하였다. 사회 기반 구조물 노후화 점검기술이 중요하게 됨에 따라 드론을 이용한 외관점검 기술에 대한 연구가 이루어 졌으며 본 연구에서는 드론을 이용해 균열을 검출 및 분석하는 대안을 제시하였다. 드론 기체에 전방 및 상부방향으로 특수 카메라와 짐벌을 탑재하였다. 균열 분석 위해 추출과 분석 두 층으로 나뉘어 개발을 수행하였으며, 실시간으로 초기모델이 구축된 U-NET으로 균열을 추론, 분리하였으며 인식모델평가지표(IoU) 수치는 0.9125로 평가되었다. 그 후 균열 분석 및 평가를 위해 8개 과정의 사후처리 이미지 프로세싱을 통해 (Post-processing) 균열을 분리, 군집화, 분석 및 시각화를 수행하였다.

Abstract

Visual-safety inspection and investigation of existing bridges have problems with low objectivity and reliability because of the inspector's subjectivity. As the visual inspection technology for deteriorated infrastructure becomes important, research of inspection technology using drones has been proposed. In this study, We propose an alternative method to detect and analyze crack using drones. The drone is equipped with a special camera and gymbal in the forward and upward directions. For crack analysis, the study was conducted in two layers: extraction and analysis. Crack is segmented by learned U-NET model in real time and the Intersection-over-Union (IoU) value was 0.9125 (91%). After, through post-processing image processing of 8 steps, the crack is isolated, clustered, analyzed and visualized.


Keywords: deep-learning, drone, crack, visual inspection, image-processing, visual-safety

Ⅰ. 서 론

교량점검은 교량 점검자가 안전하고 불안감이 없이 효율적으로 점검, 진단하기 위해 시설들이 운용되어왔다. 고정식, 이동식 점검에 따라 점검 방식이 나누어지며, 고정식은 계단, 통로 사다리 등, 이동식은 이동식 사다리, 점검대차, 굴절식 점검차, 고소작업대 등 고소 부재에 접근할 수 있는 장비로 운용된다.

형태에 따라 교량이 가설되어 있는 주변의 지형 또는 공간 여건으로 선택적으로 운용하여 근접점검 후 교량 유지관리를 수행한다. 운용에는 접근성, 작업공간, 안전보장, 장비의 내구성, 고장 유무, 미관, 교통 통재 등 교량관리 효율의 향상을 도모하도록 기준이 정해져 수행되고 있다. 하지만 이러한 교량점검은 현장에서 점검자가 측량도구에 의존하여 육안 조사 후 외관조사망도를 작성하는 사람이 개입하는 단계로 이루어진다. 이러한 방법은 점검자의 주관이 개입되어 객관성과 신뢰도가 떨어질 수 있으며, 관리자가 변경될 경우 연속적인 손상 진행여부를 파악하기 어렵다.

교량 점검의 객관화와 효율성을 위하여 촬영기기를 통한 영상획득기반 분석 연구가 수행되고, 그 촬영 방식에 대한 연구도 선행되었으며, 대표적으로 비교적 촬영의 제약이 없고 여러 산업 분야에서 응용중인 드론사용에 대한 연구가 이루어졌다[1].

드론을 이용한 교량 안전점검은 작업자의 안전, 작업의 효율성, 정확도 측면에서 우수하고, 기체에 부착된 카메라를 통해 교량상태를 실시간으로 영상을 습득할 수 있으며, 직접적으로 사용자가 개입하여 드론을 조종 또는 자동비행으로 교량 인근 조사 등 형태에 따라 다양한 응용이 가능하다. 또한 균열 검사의 객관화와 자동화를 위하여 기존에 통용되는 전처리, 분할, 결함 관리, 결함 검출 등 룰기반 기법의 균열검사 과정에서 더 나아가 인공지능을 복합시켜 균열의 결과를 도출하였다.

본 연구는 드론을 이용한 교량점검의 자동화방안 중 인공지능과 룰베이스를 혼합하여 교량 균열 추출과 분석을 자동화시킨 임베디드 모듈을 고안하고 실무 적용 시 객관성과 신뢰도 향상을 통한 점검자의 안전과 효율성을 향상시키는 방안을 연구하였다[2].


Ⅱ. 관련 연구
2.1 콘크리트 균열

콘크리트 균열은 교량에서 부득이하게 발생되며, 예상치 못한 주변 특성, 시공 부주의와 노후화 같은 여러 원인에 의해 균열이 발생할 수 있으며, 자연적인 이유로도 균열이 쉽사리 발생할 수 있다. 이런 균열에 대한 문제점으로부터 구조물을 보호하기 위해 콘크리트 표준시방서에서는 균열폭이 외부 조건에 따라 허용 균열폭을 넘지 않도록 규정하고 관리하고 있다.

균열은 구조적 균열(Structural crack)과 비구조적인 균열(Nonstructural crack) 두 가지로 분류할 수 있다. 구조적인 균열은 구조적 기능을 발휘할 수 없는 단계로 진행되거나 도달한 균열을 의미하며, 설계 오류, 설계하중을 초과한 외부하중, 불량 시공, 물리손상(폭발, 충격), 부식으로 인한 성능저하를 포함한다. 이를 제외한 다른 원인으로 야기되는 균열은 비구조적인 균열로 포함된다.

2.2 콘크리트 균열검사

이와 같이 콘크리트 구조물에 발생한 균열은 내구성과 사용성에서 문제가 발생할 수 있기 때문에 정기적인 검사가 필요하다. 균열 현미경과 게이지와 같은 장비를 이용한 실측 균열방법이 있으며, 이미지프로세싱을 이용한 균열 검출, 균열 분석, 균열 패턴인식 등의 연구들이 진행되고 있다[3]. 또한 인공지능의 발달로 콘크리트의 구획화(Segmentation)을 통한 정보 습득, 기반구획화(Convolution-based segmentation) 딥러닝 기법과 오토인코더 기반 구획(Autoencoder-based segmentation) 딥러닝 기법이 연구되었다.

딥러닝 기법을 통해 균열 영상의 데이터베이스를 구축하여 균열을 빠르게 파악하는 연구들도 수행되었다[3]. 본 연구에서는 콘크리트 구획화를 위하여 U-NET을 사용하였다. U-Net은 FCN(Fully Convolution Network)을 기반으로 하여, 적은 데이터를 가지고도 더욱 정확한 구획을 내기 위해 FCN 구조를 수정한 네트워크 모델이다[4]. 생체 이미지 분할을 위한 컨볼루션 네트워크로 개발되었으나, 현재 다양한 분야에서 이용되고 있다. 특히 컨볼루션의 유효 부분만 이미지를 타일로 나뉘어 입력으로 사용하여 이미지입력간의 일부분이 포함되는 오버타일(Overlap-Tile) 기술을 구성하였다. 모델의 출력은 소프트맥스(Softmax)로 추론되고 손실함수는 크로스 엔트로피(Cross-Entropy)함수가 사용된다. 또한 교량의 데이터가 작을 수 있어 균열의 본질적인 형태에 어긋나지 않는 탄성 변형(Elastic deformation) 기법을 주로 사용하여 데이터 증가(Data augmentation)를 선행하였다. 이를 통해 메모리 사용에 많은 이점을 가져 제한적인 연산 자원을 가지는 임베디드 시스템(Embedded system)에서도 효율적인 학습 및 추론할 수 있으며, 또한 경우에 따라 콘크리트 균열의 상황에 적합하도록 데이터 증가를 선택적으로 사용하여 드론에서 실시간으로 균열 추론이 필요한 균열검사 시나리오에서 적합한 딥러닝 연산 수행을 할 수 있다.


Ⅲ. 기체 제작 및 인공지능 기반 추출 균열 분석 수행
3.1 기체설계 및 제작

교량 촬영을 위한 기체 프레임 구조는 짐벌 카메라가 상하 90 촬영이 가능한 구조로 설계하기 위해 기존 전후좌우 대칭적인 기체구조를 탈피하여 그림 1과 같이 전후가 비대칭인 기체를 고안하였다. 이러한 구조는 전방에 짐벌 카메라를 탑재하여 교량 상하부 촬영이 가능하다. 촬영시 비행 안정성 확보를 위해 테스트를 통해 FC 펌웨어 파라메터를 실험적으로 개선하였다. 또한 교량 하부에서 발생하는 강풍 또는 돌풍에 견딜 수 있도록 더블 로터 구조를 채택하여 출력을 높이고 내풍성 기준 12m/s에서 비행가능 하도록 설계하였다[5].


Fig. 1. 
Design of drone body

기체의 구조는 센터플레이트 상부에 센서부, FC 보드, ESC를 탑재하고 하부에 배터리팩이 장착되어 있으며, 전방카메라와 3개의 라이다를 연결하여 360 범위의 교량의 충돌 범위를 감지한다. 드론 기체는 표 1과 같은 제원으로 그림 1과 같이 구현하였다.

Table 1. 
Specification of the drone body
Drone body size 1,000 × 1,000 × 410 mm
Weight 1300 g(include battery)
Max speed 60 km
GNSS GPS + GLONASS
Battery capacity 32,000 mAH
Mission range 3 km
Speed Rise: 4 m/s, Descent: 3 m/s
Motor 1300 W
Mission board JETSON AGX XAVIER
Gymbal 2axis gymbal
Flight time 20 minutes
Flight controller NVIDIA JETSON XAVIER

3.2 교량 균열학습

교량 콘크리트 균열검사를 위해 Özgenel(2019)의 공용 콘크리트 균열 데이터셋을 학습에 이용하였다[6]. METU 대학교의 외벽 콘크리트 이미지를 촬영하여 분할 학습을 위해 구성된 데이터이며, 이미지 크기는 227 px (h) x 227 px (w), 약 600개의 촬영 데이터(RGB), 흑백 정보 데이터(B/W ground truth)로 구성되어있다. 해당 데이터는 본 연구의 분할 모델 생성을 위하여 약 500개 이미지를 바탕으로 학습을 수행하였다. 모델 하이퍼 파라미터(Hyper parameter) 환경은 반복을 통하여 최적의 결과를 보여준 값을 사용하였고 웨이트 디케이 1e-5, 드롭아웃 비율 0.8, 최대 에포크 사이즈 100으로 설정하였다.

NVIDIA GTX 3080기반 GPU 환경에서 tensorflow2 기반 학습 모델 메타데이터를 생성하였으며, 실시간 교량 균열측정 추론을 위해 드론기체상에 임베디드용 보드 JETSON AGX XAVIER를 탑재하여 운용하였다. 해당 보드는 100×87mm 크기로 소형화되어 임베디드 기반으로 딥러닝 실시간 영상 분석을 위해 최적화된 시스템을 가지고 있으며, 성능은 표 2와 같다. JETSON 보드는 NVIDIA JetPack, CUDA, cuDNN 및 TensorRT 소프트웨어 라이브러리를 기본적으로 제공하여 본 연구의 인공지능 환경 구축의 기본이 되었다.

Table 2. 
Specification of NVIDIA JETSON AGX XAVIER
GPU 384-Core Volta GPU with 48 Tensor cores
CPU 6-core ARM v8.2 64-bit CPU, 6MB L2+4MB L3
Memory 8GB 256-bit LPDDR4x – 85GB/s
Storage 16 GB eMMC 5.1

3.3 교량 추출 균열 결과 및 성능검증

평가는 신뢰성을 높이기 위해 K겹 교차 검증(K-fold cross validation)을 수행하였다. 콘크리트 균열의 600개의 데이터를 120개씩 5개 군으로 성능평가지표 대상 데이터를 나누고 평균치를 이용하여 검증을 수행하였다.

그림 2와 같이 균열 추론결과(Prediction)와 각 데이터별 실제 정보(Ground truth)를 나눌 수 있다. 성능 검증을 위해 기존의 기본 FCN과의 비교를 위하여 추론결과와 실제 정보의 교차영역의 넓이를 합영역 값으로 나눈 인식모델 평가지표인 IoU(Intersection Over Union)평가를 수행하였다[7].


Fig. 2. 
Comparison of prediction and ground truth of crack

본 연구에서 수행된 최적화된 U-Net의 성능검증을 위해 이미지 분할 네트워크 FCN-8, FCN-16 네트워크와 비교를 수행하였고 표 3과 같은 결과데이터를 보여주었으며 현재 연구에 사용된 U-Net에서 0.9125로 가장 높은 IoU값을 가져 교량 균열 탐지의 정확성을 보여주었다.

Table 3. 
Model verification from IoU comparison
Network IoU (%)
FCN-16 71.23
FCN-8 84.24
U-Net 91.25


Ⅳ. 인공지능 기반 추출 균열 분석 수행
4.1 교량 균열 분석 시나리오

앞서 추출된 U-Net을 통한 균열 추출 후 자동 균열 분석을 위해 소프트웨어 상에서 수행될 시나리오를 설정하였다.

객관적이고 다양한 형태의 콘크리트 균열에 대한 연구를 수행하기 위해 콘크리트 구조물의 균열 영상 데이터[8]를 이용하여 선행 조사되었으며. 균열 추출 후 분석의 시나리오는 그림 3과 같다.


Fig. 3. 
Scenarios of bridge crack analysis

균열분석은 추출된 균열의 분기점 탐지를 기반으로 수행하였다[9]. 균열 분석된 결과 데이터는 그레이스케일(Grayscale) 이미지로 나타난다. 첫 번째 분석 단계로 그레이스케일 이미지 데이터를 0과 1로 이진화(Binarization) 하고 형태학적 골격 추출을 위해 뼈대추출(Skeletonization)을 수행한다. 뼈대추출은 모양의 위상을 보존하여 이진 이미지의 골격을 표현하였다. 뼈대추출이 완료된 데이터에서 분기 여부를 판단하기 위해, 픽셀단위로 표현 가능한 모든 분기점 형태를 정의하였다. 이렇게 정의된 총 40개의 분기점 형태는 그림 4와 같으며, 모든 형태의 분기점 마스크를 통해 2차원 메트릭을 대입하여 분기점을 탐색(Branch point detection)하였으며[10]. 수행결과의 결과 이미지는 그림 5와 같다.


Fig. 4. 
40 branch point types for branch point search


Fig. 5. 
Detection of bridge crack branch point

4.2 교량 균열 분석 결과 및 비교

그림 6과 같이 탐색된 분기점 기반 각 종점을 통해 유클리드 거리 측정이 가능하고 세부 균열 크기, 거리, 인접 균열간의 형태 별 정렬(Crack sort)을 통해 1차적인 균열 직선의 수학적 정보를 구할 수 있었으며, 실제 이미지 실측이미지와 비율을 설정하여 균열의 실제 길이와 각도를 구하였다. 구해진 정보를 육안으로 나타내기 위하여 소프트웨어 이미지 상 2D 라벨링되어 표시되며, 그림 4에서 기존 컬러(RGB) 이미지와의 비교를 통해 추출된 균열을 확인하고 분석된 분기점 및 각종 수치 정보들을 확인할 수 있다.


Fig. 6. 
Comparison of bridge crack


Ⅴ. 결론 및 향후 과제

본 연구는 드론과 균열 이미지처리를 이용한 교량 안전점검의 효율적 방안을 연구하였다. 인공지능의 균열 추출부분과 8개의 단계로 나뉘어진 룰베이스 기반의 균열 분석으로 객관적인 균열 정보를 습득할 수 있었다. 기존 수기 또는 장비에 작업자가 의존해야하는 방식과는 달리 드론을 통해 수동의 과정들을 실시간으로 효율적으로 더 빠르게 균열 이미지를 추출부터 분석까지 완전 자동화를 실현시켰다. 이러한 연구가 균열 분석을 통해 더욱 정밀하고 정확한 정보를 점검자에게 전달하여 교량 안전에 기여할 수 있기를 기대하며, 추후 연구를 바탕으로 더 효율적이고 빠른 소프트웨어 방식을 통해 시나리오를 개선시켜 나갈 예정이며, 드론의 자동 안전점검을 위한 주행기능 연구 등 교량의 안전점검을 위한 연구를 다방면으로 수행할 예정이다.


Acknowledgments

본 연구는 산업통상자원부의 "이전공공기관연계육성사업"의 지원을 받아 수행된 연구결과임 (P0002073, 2018)

본 연구는 국토교통부 ‘공공혁신조달 연계 무인이동체 및 SW플랫폼 개발사업’의 연구비지원(19DPIW-C153675-01#)에 의해 수행되었습니다.


References
1. Daeyoung Choi, et al., "A Study on Deep-Learning based Crack Analysis for Visual-safety Inspection of Bridge", Proceedings of KIIT Conference, Jeju, Korea, pp. 1-3, Jun. 2021.
2. Kim. H, Ahn. E, Cho. S, Shin. M., and Sim. S. H., "Comparative analysis of image binarization methods for crack identification in concrete structures", Cement and Concrete Reserch, Vol. 99, pp. 53-61, Sep. 2017.
3. Jonathan Long, Evan Shelhamer, and Trevor Darrell, "Fully convolutional networks for semantic segmentation",  Proc. of the IEEE conference on computer vision and pattern recognition, Boston, MA, USA, pp. 3431-3440, Jun. 2015.
4. Olaf Ronneberger, Philipp Fischer, and Thomas Brox, "U-net: Convolutional networks for biomedical image segmentation",  In International Conference on Medical image computing and computer-assisted intervention, Munich, Germany, pp. 234-241, Oct. 2015.
5. Seung Hyun Paik, et al., "Implementation of the Drones with Deep-Learning Crack Detection Analysis for Inspection of Bridge", Journal of JKIIT, Vol. 19, No. 3, pp. 45-52, Mar. 2021.
6. Özgenel, Çağlar Fırat,  "Concrete Crack Segmentation Dataset",  Mendeley Data,  Vol. 1,  Apr. 2019.
7. Hamid Rezatofighi, Nathan Tsoi, JunYoung Gwak, Amir Sadeghian, Ian Reid, and Silvio Savarese,  "Generalized intersection over union: A metric and a loss for bounding box regression", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,  Long Beach, CA, USA, pp. 658-666,  Feb. 2019.
8. Takafumi Nishikawa, Junji Yoshida, Toshiyuki Sugiyama, and Yozo Fujino, "Concrete crack detection by multiple sequential image filtering", Computer‐Aided Civil and Infrastructure Engineering, Vol. 27, pp. 29-47, Sep. 2012.
9. Xingxing Weng, Yuchun Huang, and Wenzong Wang, "Segment-based pavement crack quantification",  Automation in Construction, Vol. 105, pp. 3431-3440, Sep. 2019.
10. Gehan, Malia A., et al., "PlantCV v2: Image analysis software for high-throughput plant phenotyping", PeerJ 5, e4088, Dec. 2017.

저자소개
최 대 영 (Daeyoung Choi)

2014년 2월 : 영남대학교 생명공학부(공학사)

2018년 2월 : 경북대학교 전자공학부(공학석사)

2021년 9월 ~ : 경북대학교 전자공학부(공학박사)

2020년 ~ 현재 : (재)경북IT융합산업기술원 연구원

관심분야 : 컴퓨터 비전, 머신러닝

백 승 현 (Seungh Hyun Paik)

2006년 2월 : 경북대학교 전자공학과(공학사)

2009년 8월 : 경북대학교 전자공학부(공학석사)

2016년 8월 : 경북대학교 전자공학부(공학박사)

2018년 ~ 현재 : (재)경북IT융합산업기술원 선임연구원

관심분야 : 임베디드 시스템, 드론, 머신러닝

김 영 규 (Young-Kyu Kim)

2005년 2월 : 경주대학교 전자공학과(공학사)

2011년 2월 : 경북대학교 모바일통신공학과(공학석사)

2016년 8월 : 경북대학교 전자공학부(공학박사)

2020년 ~ 현재 : (재)경북IT융합산업기술원 선임연구원

관심분야 : 컴퓨터 아키텍처, SoC, 드론

정 상 우 (SangWoo Jung)

2014년 2월 : 경일대학교 로봇응용학과(공학사)

2016년 8월 : 경북대학교 전자공학부(공학석사)

2020년 ~ 현재 : (재)경북IT융합산업기술원 연구원

관심분야 : 임베디드 시스템, 드론, 머신러닝

김 대 년 (Dae-Nyeon Kim)

2001년 2월 : 울산대학교 제어계측(공학사)

2003년 2월 : 울산대학교 전기전자정보시스템공학(공학석사)

2010년 2월 : 울산대학교 전기전자정보시스템공학(공학박사)

2012년 ~ 현재 : (재)경북IT융합산업기술원 책임연구원

관심분야 : 임베디드 시스템, 드론, 머신러닝