Korean Institute of Information Technology

Current Issue

The Journal of Korean Institute of Information Technology - Vol. 22 , No. 3

[ Article ]
The Journal of Korean Institute of Information Technology - Vol. 20, No. 4, pp. 89-97
Abbreviation: Journal of KIIT
ISSN: 1598-8619 (Print) 2093-7571 (Online)
Print publication date 30 Apr 2022
Received 07 Feb 2022 Revised 24 Feb 2022 Accepted 27 Feb 2022
DOI: https://doi.org/10.14801/jkiit.2022.20.4.89

합성곱 신경망을 이용한 풍력 블레이드 상태 구분
김용빈* ; 김용민** ; 최인식***
*한남대학교 전기전자공학과 석사과정
**한남대학교 전기전자공학과 학사과정
***한남대학교 전기전자공학과 교수(교신저자)

State Classification of Wind Turbine Blade using Convolutional Neural Network
Yong-Bin Kim* ; Yong-Min Kim** ; In-Sik Choi***
Correspondence to : In-Sik Choi Dept. of Electrical and Electronic Engineering, Hannam University, 70 Hannam-ro, Daeduk-gu, Daejeon, 34430, Korea. Tel.: +82-42-629-8568, Email: recog@hnu.kr

Funding Information ▼

초록

본 논문에서는 풍력 블레이드의 상태를 구분하기 위한 CNN 구분기 설계 및 구분 실험 결과를 제시한다. 상태별로 서로 다른 CNN 구분기를 설계하였으며 구분기 1에는 외관 상태, 구분기 2에는 동작 상태를 구분하였다. 구분하려고 하는 풍력 블레이드의 상태로는 외형적으로는 정상 상태와 파손 상태를 가정하였으며, 동작적으로는 정상 회전과 불균형 회전을 가정하였다. 훈련 데이터는 상태별 잡음이 없는 스펙트로그램을 사용하였고 테스트 데이터는 가우시안 잡음을 추가하여 구분기의 성능을 검증하였다. 실험 결과 SNR이 좋아짐에 따라 구분 결과도 향상되었으며, 5dB 상태일 때 구분기 1의 구분 정확도는 99.83%, 구분기 2의 구분 정확도는 98.68%를 가짐을 확인하였다. 본 연구를 통하여 딥러닝 구분기가 가중합 그래프와 플래시 간격 그래프를 이용하는 선행 연구에 비해 더 좋은 구분 성능을 나타냄을 확인하였다.

Abstract

This paper shows the CNN(Convolutional neural network) classifier design and simulation results for classifying the state of the wind turbine blade. The separate CNN classifiers are designed to classify by a state, and the appearance states were classified in the classifier 1 and the operation states in the classifier 2. The states of the wind turbine blade to be classified are assumed to be a normal state and a damaged state by an appearance, and a balanced rotation and unbalanced rotation by an operation. As the training data, spectrograms without noise for each state are used, and as the test data, spectrograms with noise are used to verify the performance of the classifier. As a result, the classification performance is improved as the SNR is increased, and the classification accuracy of classifier 1 is 99.83% and the classification accuracy of classifier 2 was 98.68% at the SNR of 5 dB. This research shows that the deep learning classifier has the better performance than the previous research which use the weighted sum graph and the flash interval graph.


Keywords: wind turbine blade, CNN, state classification, spectrogram, classification accuracy

Ⅰ. 서 론

화석 에너지 자원의 고갈과 탄소 배출량 문제로 인해 최근 신재생 에너지가 활발히 연구가 진행되면서 풍력 에너지 대한 관심이 증가하고 있다. 풍력 에너지는 거대한 블레이드가 바람에 의해 회전을 하면서 전기를 생산하는 신재생 에너지 중 하나이다. 이러한 풍력 발전기의 블레이드는 외부에 노출되어 있어 잦은 손상이 발생할 수 있다[1]. 블레이드의 손상은 전력 생산량의 손실과 유지보수 비용에 큰 영향을 주기 때문에 최근 풍력 발전 단지의 블레이드를 효과적으로 원격 모니터링하는 연구의 필요성이 대두되고 있다[2].

모니터링 연구로는 크게 접촉식 방법과 비접촉식 방법이 있다. 접촉식 방법으로는 풍력 발전기에 센서를 설치하여 블레이드의 고장을 확인하는 방법으로 대표적으로 광센서와 무선망을 활용한 연구[3], 전류 신호를 이용하여 기어박스나 베어링 결함을 확인하는 연구가 있다[4]-[6]. 그러나 접촉식 방법은 블레이드를 제작할 때 센서를 설치하기 때문에 제작비용이 많이 들며 이미 설치된 풍력 발전 단지에는 적용하기 어려운 점이 있다. 이를 보완하기 위해 비접촉식 방법이 제안되었으며 IR 카메라를 이용하는 연구[7], 광학 카메라로 블레이드를 촬영한 후 머신러닝 기법을 이용하여 블레이드 상태를 모니터링하는 연구가 있었다[8]. 그러나 카메라는 기상과 광원에 영향을 받아 안개가 끼거나, 밤이 되면 모니터링이 어려운 단점이 있다. 이러한 단점을 극복할 수 있는 방안으로 전파를 이용하는 레이더 기반의 모니터링 연구가 최근 활발히 진행되고 있다.

레이더를 이용하여 풍력 블레이드의 상태를 모니터링하는 선행 연구 [9]에서는 풍력 블레이드의 파손 상태를 수학적으로 모델링을 하여 파손된 풍력 블레이드의 동적 RCS를 계산하였으며, 선행 연구 [10]에서는 도플러 레이더를 이용하여 획득한 수신 신호를 신호처리한 후 스펙트로그램을 이용하여 블레이드의 고장 여부를 감지하였다. 선행 연구 [11]에서는 블레이드의 동작 상태를 추정하기 위해 특성벡터를 추출하고 간단한 구분기를 이용하여 3가지의 블레이드 상태를 구분한 연구를 진행하였다. 하지만 참고 문헌 [11]에서 사용한 구분기는 잡음이 증가함에 따라 가중합 그래프와 플래시 간격 그래프에서 특성 벡터를 추출하는 작업이 쉽지 않으며 구분 정확도가 현저하게 낮아지는 문제가 발생하였다. 이러한 문제를 해결하기 위해서는 풍력 발전기의 상태별 스펙트로그램 영상을 원본 그대로 학습시키면 된다. 그러나 일반적인 신경망 구분기들은 학습 가능한 데이터의 크기와 양에 한계가 있다. 따라서, 본 논문에서는 학습량의 한계를 극복할 수 있는 CNN(Convolution Neural Network) 구분기를 이용하여 대량의 스펙트로그램 영상을 학습한 후 풍력 블레이드의 상태를 구분하는 방법을 제안하였다.

본 논문의 구성은 다음과 같다. 2장에서는 CNN 구분기의 기본적인 이론을 설명하며 3장에서는 설계된 CNN의 구조 및 파라미터에 대한 설명하고 제안한 방법을 이용하여 블레이드의 동작 상태를 구분한 연구 결과를 보여준다. 4장에서는 본 논문의 결론을 기술하였다.


Ⅱ. 관련 이론

일반적인 다층 신경망은 입력층, 은닉층, 출력층으로 이루어진 구조를 가지며 딥러닝은 은닉층이 여러 개 존재하여 더 깊은 학습이 가능하다. 이러한 딥러닝 종류의 하나인 CNN은 이미지나 영상 데이터를 입력으로 받아 구분하기 위해 개발된 다층 신경망이다. 일반적인 다층 신경망의 입력 데이터는 1차원 형태로 변환하여 사용하기 때문에 데이터의 공간 정보 손실이 생긴다. 또한, 이미지 형상을 고려하지 않고 원시 데이터(Raw data)를 직접 처리하기 때문에 많은 양의 학습데이터와 학습시간이 길어진다. 이러한 비효율성의 한계를 개선하기 위해 도입된 CNN은 일반적인 신경망과 달리 컨벌루션 계층과 풀링 계층이 추가되면서 영상의 공간 정보를 유지하며 스스로 특성을 추출하여 학습할 수 있는 것이 특징이다. 본 연구팀에서는 풍력 블레이드의 상태별로 획득된 스펙트로그램을 입력 영상으로 적용하였으며 CNN의 구조는 그림 1과 같이 컨벌루션 계층, 풀링 계층, 완전 연결 계층으로 구성하였다[12].


Fig. 1. 
General structure of CNN

컨벌루션 계층과 풀링 계층에서는 입력 데이터의 특징을 추출하고 완전 연결 계층에서는 추출된 특성 벡터를 이용하여 표적을 구분하게 된다. 컨벌루션 계층은 입력된 영상에 임의의 크기를 가지는 필터를 적용하여 컨벌루션 연산을 수행한다. 이러한 컨벌루션 연산을 수행하면 하나의 입력 영상으로부터 다수의 특징을 추출하게 되는데 이를 피쳐맵(Feature map)이라 한다. 그림 2는 컨벌루션 연산 과정을 보여준다[12].


Fig. 2. 
Calculation process of convolution

컨벌루션 연산은 필터값과 영상의 픽셀값을 각각 곱한 후 더하여 계산한다. 특정 크기를 가진 필터가 입력된 영상 전체를 이동하면서 컨벌루션 연산을 수행하며 이러한 필터가 이동하는 것을 스트라이드(Stride)라고 한다. 추출된 피쳐맵은 입력된 영상보다 크기가 작아지는 문제가 생겨 입력 영상의 정보가 손실될 수 있다. 이러한 정보의 손실 문제를 해결하기 위해서는 입력 영상의 테두리에 ‘0’을 추가하는 제로 패딩 기법(Zero padding)을 이용해 손실 문제를 해결할 수 있다. 그림 3은 제로 패딩 과정을 보여준다[12].


Fig. 3. 
Process of zero padding

그림 3의 제로 패딩 과정을 거친 후 추출된 피쳐맵의 크기는 식 (1)을 이용하여 계산할 수 있다[12].

PH=IH+2IUH-EHS+1PW=IW+2IDH-EWS+1(1) 

식 (1)에서 PH, PW는 추출된 피쳐맵 높이와 폭을 나타내며 IH, IW는 입력된 영상의 높이와 폭, IUH는 양의 패딩, IDH는 음의 패딩 FH, FW는 필터의 높이와 폭, S는 스트라이드를 나타낸다.

이러한 방법으로 얻은 피쳐맵에 활성화 함수(Activation function)을 적용시켜 비선형성을 증가시킨다. 활성화 함수로는 여러 가지가 있지만 본 논문에서는 일반적으로 가장 많이 사용되는 식 (2)와 같은 ReLu 함수를 사용하였다[12].

hx=xx>00x0(2) 

ReLu 함수는 0 미만의 값은 모두 0으로 처리하고 0보다 크면 원본값을 그대로 출력하는 특징을 가지고 있다. 풀링 계층은 컨벌루셔널 계층 다음에 위치하여 피쳐맵의 크기를 줄여 학습 가능한 파라미터 개수를 줄임으로써 연산 시간을 줄이는 역할을 한다. 풀링의 종류에는 최댓값 풀링(Max pooling)과 평균 풀링(Average pooling)이 있다. 그림 4는 최댓값 풀링과 평균값 풀링의 과정을 보여준다[12].


Fig. 4. 
Max pooling and average pooling

그림 4와 같이 m×n 크기의 영역에서 최댓값을 선택하는 방법이 최댓값 풀링이며, 평균 풀링은 해당 영역에서의 평균을 내어 평균값을 가지는 방법이다.

마지막 출력층에서는 완전 연결 계층과 소프트맥스 함수(Softmax function)을 통해서 표적을 구분한다. 완전 연결 계층은 다층 신경망(Multi-layer Perceptron: MLP) 구조이며 하나 이상의 은닉층을 가지고 있다. 보통의 다층 신경망을 구분기로 사용할 때에는 영상의 정보 손실이 일어날 수 있지만 컨벌루션 계층과 풀링 계층을 앞에 추가함으로써 입력 영상의 정보 손실이 일어나지 않고 특징을 추출한 피쳐맵을 획득할 수 있어 입력 영상에 대한 정확한 구분이 가능하다. 소프트맥스 함수는 출력값을 확률 벡터로 출력하는 일반화된 로지스틱 회귀이다. 소프트맥스 함수는 입력된 요소를 정규화하여 0∼1 사이의 값으로 출력한다. 이러한 출력값들의 총합은 1이 되며, 식 (3)과 같다[12].

Pk=expzkj=1Nexpzjfork=1,2,,N(3) 

여기서 N는 출력층의 클래스 수, zjj번 소프트맥스 함수의 입력값, zkN차원의 벡터에서 k번째 원소값, Pkk번째 클래스가 정답일 확률을 의미한다.


Ⅲ. 구분 실험 결과
3.1 CNN 구분기 설계

본 절에서는 앞에서 설명한 CNN을 사용하여 블레이드 상태를 판별하기 위한 구분기를 설계하는 과정을 설명한다. 구분하고자 하는 블레이드의 상태는 외관상으로 ‘정상 모양(Normal shape)’ 및 ‘파손된 모양(Broken shape)’이 있고, 동작 상태로는 ‘균형 회전(Balanced rotation)’ 및 ‘불균형 회전(Imbalance rotation)’ 상태가 있다. 풍력 블레이드를 상태별로 구분하기 위해서 CNN 구분기 두 개를 설계하였다. 구분기 1에서는 블레이드의 외관 상태를 구분하며, 구분기 2에서는 블레이드의 동작 상태를 구분하도록 설계하였다.

각 블레이드의 상태에 따른 스펙트로그램 영상을 훈련 데이터(Train data)로 사용하여 각 구분기를 학습하였다. 그림 5는 잡음이 없을 때 ‘Normal shape’과 ‘Broken shape’에 대한 구분기 1의 입력 영상을 보여준다.


Fig. 5. 
Training images of classifier 1

그림 5(b)와 같이 ‘Broken shape’의 경우는 ‘Normal shape’과 달리 한 개의 블레이드가 나머지 두 개의 정상 블레이드와 달리 최대 도플러 주파수의 크기가 작게 나옴을 확인할 수 있다. 이러한 두 영상의 차이는 특성벡터로서 의미를 가지며 구분기 1의 훈련 데이터로 사용하기에 적합함을 알 수 있다.

그림 6은 잡음이 없을 때 ‘Balanced rotation’과 ‘Imbalanced rotation’에 대한 구분기 2의 입력 영상을 보여준다.


Fig. 6. 
Training images of classifier 2

일정한(균일한) 속도로 회전하는 ‘Balanced rotation’의 플래시 간격은 일정하지만 불균형한 속도로 회전하는 ‘Imbalance rotation’은 플래시 간격이 일정하지 않아 플래시 간격에 시간 차이가 존재한다. 이러한 두 영상의 플래시 간격은 특성벡터로서 의미를 가지며 마찬가지로 구분기 2의 훈련 데이터로 사용하기에 적합하다. 표 1은 입력된 영상의 크기와 최종 설계된 CNN의 구조를 보여준다[12].

Table 1. 
Structure of designed CNN
Input image size 350 x 263
Filter size of convolution layer 1 32 x 32
Activation function 1 ReLu
Pooling layer method 1 Max
Filter size of convolution layer 2 16 x 16
Activation function 2 Relu
Pooling layer method 2 Max
Filter size of convolution layer 3 3 x 3
Activation function 3 ReLu
Pooling layer method 3 Max
Fully_connected layer MLP
Output layer function Soft_max

특성을 추출하는 컨벌루션 계층과 풀링 계층이 각각 3개 존재하고 이후 완전 연결 계층과 소프트맥스 함수로 상태를 구분하였다. 첫 번째 컨벌루션 계층에는 32×32 필터를, 두 번째 컨벌루션 계층에는 16×16 필터를, 마지막으로 세 번째 컨벌루션 계층에서는 3×3 필터를 사용하였다. 풀링 계층에서는 최댓값 풀링을 사용하여 피쳐맵의 크기를 축소하였고 구분층에는 완전 연결 계층과 소프트 맥스 함수를 사용하여 블레이드 상태를 구분하였다. 표 2는 구분기 1과 구분기 2의 딥러닝 파라미터를 보여준다.

Table 2. 
Deep learning parameters for classifiers 1 and 2
Parameter Value
Epoch 7
Batch size 10
Threshold value for learning 0.001

구분기 1과 2는 동일한 CNN 구조를 가지며 전체 데이터에 대한 학습 횟수는 7번이며 배치 크기(Batch size)는 10, 학습 임계치(Threshold value)는 크게 하면 학습 소요 시간을 줄일 수 있지만, 다소 시간이 걸리더라도 충분한 학습을 보장하기 위하여 0.001로 설정하였다.

3.2 CNN 구분 결과

표 3은 구분기 1과 2에 대한 훈련 데이터 획득을 위한 파라미터 값을 보여준다.

Table 3. 
Training data parameters of classifiers 1 and 2
Parameter Value
Azimuth angle 0˚ ∼ 20˚ ( interval 2˚ )
Revolution rate [rpm] 15 ∼ 20 (1 rpm interval)
# of total spectrogram 132
Image size of spectrogram 350 × 263

표 3과 같은 파라미터 조건으로 훈련 데이터를 획득한 결과, 구분기 1에서 획득한 데이터 개수는 ‘Normal shape’은 66개, ‘Broken shape’도 66개를 가지고 있다. 구분기 2에서 획득한 데이터 개수도 ‘Balanced rotation’는 66개, ‘Imbalance rotation’ 66개를 가진다. 스펙트로그램의 크기는 앞에서와 같이 350×263 이다.

테스트 데이터 파라미터는 앞에서 설명한 훈련 데이터와 유사하며 획득한 스펙트로그램의 개수만 차이가 있다. 표 4는 구분 정확도를 확인하기 위한 테스트 데이터의 시뮬레이션 파라미터를 보여준다.

Table 4. 
Test data parameters of classifiers 1 and 2
Parameter Value
SNR [dB] -5 ∼ 5 ( interval 2dB)
Azimuth angle 0˚ ∼ 20˚ ( interval 2˚ )
Revolution rate [rpm] 15 ∼ 20 (1 rpm interval)
# of Monte Carlo simulation 100
# of total spectrogram (for each state) 6,600

표 4와 같은 파라미터 조건으로 테스트 데이터를 획득한 결과, 두 개의 구분기 모두 각 SNR에 대해 ‘Normal shape’은 6600개, ‘Broken shape’도 6600개의 영상을 얻었다.

학습한 모델에 대해서 구분 정확도는 혼동행렬(Confusion matrix)을 이용하여 결과를 도출하였다. 혼동행렬은 알고리즘의 진단, 분류, 판별, 예측 능력을 평가하기 위해 고안된 표를 의미한다. 이러한 혼동행렬을 사용하여 전체 데이터 개수 중 상태에 따라 구분이 되는 횟수를 쉽게 파악할 수 있다. 구분기 1에 대한 혼동행렬 구성은 표 5와 같다.

Table 5. 
Confusion matrix for classifier 1
Predicted NS BS
Input
NS True normal (TN) False broken (FB)
BS False normal (FN) True broken (TB)

여기서 BS은 ‘Broken shape’을 나타내며, NS은 ‘Normal shape’을 나타낸다. 혼동행렬의 각 셀에는 True, False, Broken, Normal이라는 단어가 있다. True와 False는 구분의 성공과 실패를 나타내며, ‘Broken’과 ‘Normal’은 예측된 상태가 BS 또는 NS 인지를 의미한다. 구분기 1이 BS를 예측했을 때 실제 BS일 경우, True Broken(TB), BS를 예측했지만, NS일 경우 False Broken(FB), NS를 예측했을 때 실제 NS일 경우 True Normal(TN), NS를 예측했지만, 실제 BS일 경우 False Normal(FN)이 된다. 표 6은 구분기 2에 대한 혼동행렬 구성을 보여준다.

Table 6. 
Confusion matrix for classifier 2
Predicted BR IR
Input
BR True balanced (TB) False imbalance (FI)
IR False balanced (FB) True imbalance (TI)

표 6에서 BR은 ‘Balanced rotation’, IR은 ‘Imbalance rotation’을 의미한다. 이러한 혼동행렬에 대해 구분기 2의 구분정확도는 식 (4)를 이용하여 구할 수 있으며 구분기 1의 경우도 유사한 방법으로 계산이 가능하다.

PAccuracy%=TB+TITB+FB+FI+TI×100(4) 

구분기 1에 대하여 SNR=1∼5dB(interval 2dB)에 대한 혼동행렬은 표 79와 같다.

Table 7. 
Confusion matrix of SNR=1dB for classifier 1
Predicted NS BS
Input
NS 6574 26
BS 754 5846

Table 8. 
Confusion matrix of SNR=3dB of classifier 1
Predicted NS BS
Input
NS 6591 9
BS 502 6098

Table 9. 
Confusion matrix of SNR=5dB for classifier 1
Predicted NS BS
Input
NS 6600 0
BS 176 6424

표 79를 보면 SNR이 높아질수록 구분 정확도가 증가함을 확인할 수 있으며, BS보다는 NS가 더 잘 구분됨을 확인할 수 있다. NS는 BS보다 뚜렷하게 블레이드의 최대 도플러 주파수가 보이기 때문에 성공 횟수가 더 높다. 구분기 2에 대하여 SNR=1∼5dB(interval 2dB)에 대한 혼동행렬은 표 1012와 같다.

Table 10. 
Confusion matrix of SNR=1dB for classifier 2
Predicted BR IR
Input
BR 2590 4010
IR 6 6594

Table 11. 
Confusion matrix of SNR=3dB for classifier 2
Predicted BR IR
Input
BR 4289 2311
IR 0 6600

Table 12. 
Confusion matrix of SNR=5dB for classifier 2
Predicted BR IR
Input
BR 6446 154
IR 96 6504

표 1012를 보면 구분기 2에 대한 구분 성공 횟수가 구분기 1보다 작음을 확인할 수 있다. 그러나 SNR이 증가할수록 구분 정확도는 증가하며 5dB에서는 구분기 1과 유사한 결과를 보인다. 표 13식 (4)로 계산한 구분기 1, 2의 SNR=–5∼5dB(interval 2dB)에 대한 구분 정확도를 보여준다.

Table 13. 
Classification accuracy of classifier 1 and 2 by SNR
SNR [dB] -5 -3 -1 1 3 5
Classifier 1 (%) 83 87 91 94 96 99
Classifier 2 (%) 51 53 57 70 82 98

표 13의 결과를 보면 전반적으로 구분기 1의 블레이드 외관 상태가 구분기 2의 블레이드 동작 상태보다 구분 성능이 더 좋음을 확인할 수 있다. 구분기 1은 블레이드에서 발생하는 플래시 신호가 특성벡터로 사용되어 잡음이 섞이게 되어도 그 특징이 유지되어 구분 성능이 좋다고 볼 수 있다. 그러나 구분기 2는 플래시 사이의 시간 차이를 특성벡터로 이용하기 때문에 잡음이 섞이게 되면 시간 차이의 오류가 많이 발생하여 구분 성능이 구분기 1에 비해서 다소 낮다. 그러나 SNR이 증가하면서 구분기 2의 구분 성능도 좋아지며 5dB에서는 두 구분기 모두 구분 성능이 98% 이상이 됨을 확인할 수 있다. 또한 선행 연구인 참고문헌 [11]의 결과와 비교를 수행하였다.

참고문헌 [11]의 방법은 낮은 SNR에서는 성능이 매우 떨어지므로 제안하는 방법과의 비교가 큰 의미가 없어서, 본 논문에서는 SNR 5 dB에서만 비교하였다. 그 결과 구분기 1의 경우는 86%에서 99%로 증가하였고, 구분기 2의 경우는 96%에서 98%로 구분 성능이 향상됨을 알 수 있다.


Ⅳ. 결 론

본 논문에서는 풍력 블레이드의 상태를 추정하기 위해 CNN을 이용하여 구분기를 설계하였다. 구분하고자 하는 블레이드의 상태는 외관 상태인 NS와 BS, 동작 상태인 BR과 IR이 있다. 외관과 동작 상태에 따른 구분기를 각각 설계하였으며 훈련 과정에서는 잡음이 없는 데이터를 이용하여 학습을 수행하였다. 학습된 CNN 구분기를 이용하여 SNR=–5∼5dB(2dB interval) 조건에서 테스트 데이터를 생성한 후 구분 실험을 수행하고 혼동행렬을 이용하여 구분 정확도를 확인하였다. 그 결과 두 구분기 모두 SNR이 증가함에 따라 구분 정확도도 향상되었으며 5dB SNR에서 98% 이상의 구분 정확도를 확인하였다. 전반적으로 구분기 1의 블레이드 외관 상태가 구분기 2의 동작 상태보다 높은 구분 정확도를 가지며 구분기 2는 잡음에 의한 영향을 많이 받는 것을 확인하였다.


Acknowledgments

이 논문은 2021년도 정부(미래창조과학부)의 재원으로 한국연구재단의 지원을 받아 수행된 연구임(No. 2021R1I1A3043120).

본 논문은 2021년에 개최된 제2회 한국 인공지능 학술대회에서 “딥러닝을 이용한 풍력 블레이드의 상태 구분[13]”으로 발표된 논문을 확장한 것이다.


References
1. Yong-Bin Kim and In-Sik Choi, "Analysis of measured radar signal depending on the weather for wind turbine blade", 2021 KIEE Spring Conference, pp. 121-123, May 2021.
2. K. Oh, J. Park, J. Lee, B. I. Epureanu, and J. Lee, "A Novel Method and its Field Tests for Monitoring and Diagnosing Blade Health for Wind Turbines", in IEEE Transactions on Instrumentation and Measurement, Vol. 64, No. 6, pp. 1726-1733, Jun. 2015.
3. B. Lu, Y. Li, X. Wu, and Z. Yang, "A review of recent advances in wind turbine condition monitoring and fault diagnosis", 2009 IEEE Power Electronics and Machines in Wind Applications, Lincoln, NE, USA, pp. 1-7, Jun. 2009.
4. X. Gong and W. Qiao, "Bearing fault diagnosis for direct-drive wind turbines via current-demodulated signals", in IEEE Transactions on Industrial Electronics, Vol. 60, No. 8, pp. 3419-3428, Aug. 2013.
5. F. Cheng, Y. Peng, L. Qu, and W. Qiao, "Current-Based Fault Detection and Identification for Wind Turbine Drivetrain Gearboxes", in IEEE Transactions on Industry Applications, Vol. 53, No. 2, pp. 878-887, Mar/Apr. 2017.
6. X. Gong and W. Qiao, "Current-Based Mechanical Fault Detection for Direct-Drive Wind Turbines via Synchronous Sampling and Impulse Detection", in IEEE Transactions on Industrial Electronics, Vol. 62, No. 3, pp. 1693-1702, Mar. 2015.
7. S. Hussain and Y. C. Kim, "Communication Network for Remote Monitoring of Wind Turbine Based on Infrared Camera", 2017 20th Conference of Open Innovations Association (FRUCT), St. Petersburg, Russia, pp. 83-90, Apr. 2017.
8. B. J. Kim, S. P. Chen, and S. J. Kang, "Motion Estimation and Machine Learning-based Wind Turbine Monitoring System", The transactions of The Korean Institute of Electrical Engineers, Vol. 66, No. 10, pp. 1516-1522, Oct. 2017.
9. Y. J. Choi and I. S. Choi, "Dynamic RCS Analysis by Damage Status of Wind Turbine Blade", The Journal of Korean Institute of Information Technology, Vol. 17, No. 7, pp. 75-82, Jul. 2019.
10. H. Zhao, G. Chen, H. Hong, and X. Zhu, "Remote Structural Health Monitoring for Industrial Wind Turbines Using Short-Range Doppler Radar", IEEE Transactions on Instrumentation and measurement, Vol. 70, pp. 1-9, Jan. 2021.
11. Y. B. Kim and I. S. Choi, "Feature Vector Extraction and Classifier Design for State Classification of Wind Turbine Blade", Journal of Korean Institute of Information Technology, Vol. 19, No. 6, pp. 89-97, Jun. 30, 2021.
12. Yong-Bin Kim, "A Study on Measurement and State Classification of Wind Turbine Blade Using Doppler Radar", Thesis for M.S., Hannam University, 2022.
13. Y. B. Kim, Y. M. Kim, S. W. Ryu, Y. M. Kim, and I. S. Choi, "State classification of wind turbine blade using deep learning", Proc. of The 2nd Korea Artificial Intelligence Conference, Jeju, Korea, p. 344, Sep. 2021.

저자소개
김 용 빈 (Yong-Bin Kim)

2020년 2월 : 한남대학교 전자공학과(공학사)

2022년 2월 : 한남대학교 전기전자공학과(공학석사)

관심분야 : 레이더 신호 측정 및 분석, 레이더 신호처리, 딥러닝

김 용 민 (Yong-Min Kim)

2016년 3월 ~ 현재 : 한남대학교 전기전자공학과 학부과정

관심분야 : 레이더 신호처리, 딥러닝

최 인 식 (In-Sik Choi)

1998년 2월 : 경북대학교 전자공학과(공학사)

2000년 2월 : POSTECH 전자전기공학과 (공학석사)

2003년 2월 : POSTECH 전자전기공학과 (공학박사)

2003년 ~ 2004년 : LG전자 선임연구원

2004년 ~ 2007년 : 국방과학연구소 선임연구원

2007년 ~ 현재 : 한남대학교 전기전자공학과 교수

관심분야 : 레이더 신호처리, 레이더 시스템 설계, RCS 해석