Korean Institute of Information Technology

Home

The Journal of Korean Institute of Information Technology - Vol. 20 , No. 6

[ Article ]
The Journal of Korean Institute of Information Technology - Vol. 20, No. 6, pp. 101-115
Abbreviation: Journal of KIIT
ISSN: 1598-8619 (Print) 2093-7571 (Online)
Print publication date 30 Jun 2022
Received 24 Mar 2022 Revised 27 Apr 2022 Accepted 30 Apr 2022
DOI: https://doi.org/10.14801/jkiit.2022.20.6.101

결합형 양방향 필터를 이용한 주야간 적응형 가시광 및 근적외선 영상 합성
박철우* ; 권혁주* ; 이성학*
*경북대학교 IT대학 전자공학부
*경북대학교 IT대학 전자공학부(교신저자)

Day and Night Adaptive Visible and NIR Image Fusion using the Joint Bilateral Filter
Cheul-Woo Park* ; Hyuk-Ju Kwon* ; Sung-Hak Lee*
Correspondence to : Sung-Hak Lee, School of Electronics Engineering, Kyungpook National University, 80 Daehak-ro, Buk-gu, Daegu, 41566, Korea Tel.: +82-53-950-7216, Email: shak2@ee.knu.ac.kr

Funding Information ▼

초록

본 논문에서는 주야간의 사물 식별을 위한 광대역 영상 합성 기법을 제시한다. 취득된 가시광 및 근적외선 두 영상을 합성하기 위해 먼저, 양방향 필터(Bilateral filter)를 이용하여 기저 성분과 세부 성분으로 분해하고 국부 분산맵을 이용하여 세부 성분을 합성한다. 또한 주간과 야간의 근적외선 영상 특성의 차이를 고려하여 결합형 양방향 필터를 이용한 휘도 포화 영역 맵과 깊이 및 침투 맵을 이용하여 기저 성분을 합성하였다. 제안 방법은 광대역 영상 촬영에서 다양하게 경험되는 태양광과 적외선 보조광에 의한 부분적 과도 또는 부족 노출 현상을 극복하고 세부 성분을 강조하여 기존의 방법보다 실내 실외의 다양한 영상에서 사물 식별을 개선하는 결과를 보인다.

Abstract

In this paper, we present a broadband imaging technique to identify distant objects in day and night time. In order to synthesize the two acquired visible and near-infrared images, first, a base component and a detail component are decomposed using a bilateral filter, and the detailed components are synthesized using a local variance map. did Also, considering the difference in NIR imaging characteristics in daytime and nighttime modes, the basis component was synthesized using different methods of luminance saturation map using joint bilateral filer and depth and penetration map. The proposed method overcomes the partial overexposure or underexposure phenomenon caused by strong sun and IR lights used in broadband imaging and improves the identification of objects in various spaces than the existing method by emphasizing detailed components.


Keywords: image fusion, visible and near-infrared image, tone compression, high dynamic range

Ⅰ. 서 론

실내 외 사물 식별을 위하여 차량, 로봇, 드론 등에 이동형 카메라를 활용하는 경우 촬영 조건은 주간과 야간까지의 일광 조건, 어두운 실내, 터널, 지하, 야간 조명등과 차량 전조등이 있는 골목이나 도로 등으로 광범위하다[1]. 사물 식별의 정확성과 활용도를 위해 이러한 다양한 공간과 조명 상황에서도 충분한 영상 정보를 확보해야 한다. 근적외선 영상은 가시광 영상보다 미립자에 의한 산란효과가 적기 때문에 안개나 그늘진 곳 그리고 원거리 영역에 대하여 경계 대비가 크고 더 많은 세부 정보를 확보할 수 있지만 수면 아래와 같이 근적외선이 통과하지 못하는 매질에 대해서는 영상 정보를 얻을 수 없으며 색채 정보 또한 포함하고 있지 않다[2]. 따라서 가시광과 근적외선 영상 합성을 이용한 가시성 확보에 대한 연구가 활발하게 진행되고 있다. 그림 1은 가시광 및 근적외선 입력 영상과 합성한 결과 영상을 보여준다. 근적외선 영상은 가시광이 도달하지 못하는 영역의 정보를 담아 줌으로써 가시광 영상에 부족한 시인성을 크게 개선할 수 있다.


Fig. 1. 
Visible light and near-infrared input and result images, (a) Visible images, (b) Near-infrared images, (c) Fused images

야간 영상 촬영의 경우 일반적으로 영상 취득은 보안이나 방범을 위해 시각적 영향을 주지 않는 IR LED 조명을 많이 사용하고 있으나 촬영 환경에 따라 특히 주간 영상과 야간 영상인지에 따라 국부적으로 광량 부족이나 휘도 포화가 발생 될 수 있고,환경에 따라 LED 조명 밝기를 조절하기는 힘들다.

Li와 Vanmali 등이 제안한 가시광 근적외선 영상 합성 알고리즘들은 국부 대비와 로컬 엔트로피(Local entropy) 이용한 가중치 맵을 이용하여 휘도 채널 합성을 진행하고 선명화와 색 보상의 후처리 과정을 통하여 영상을 합성하였다[2][3]. 그러나 근적외선 영상의 세부 정보를 잘 재생하지 못하고 색 보상 이후 경계 정보가 잘 드러나지 않는 현상이 발생된다[1].

본 논문은 시간적으로 분리 촬영된 주야간의 가시광 및 근적외선 영상을 촬영 환경에 적합한 합성 방법을 통해 세부 정보의 경계 대비와 색 표현력이 우수한 영상을 제공한다. 야간의 경우 일정한 단위 시간 간격으로 IR 조명을 반복적으로 작동시켜 다중 영상을 취득하고 이때 합성 알고리즘이 적응적으로 합성 비를 조절한다. 제안 방법은 IR 조명 스위칭을 이용한 시분할 영상 취득으로부터 가시광 영상과 근적외선 영상의 시야각 일치와 충분한 밝기를 얻을 수 있고, 주간과 야간에 달라지는 근적외선 영상의 특성을 고려한 합성 알고리즘을 제안하여 기존 방법과 비교하여 뚜렷한 경계 대비에 강점을 가진다. 제안 방법은 입력 영상에 대해 기저층(Base layer)과 세부층(Detail layer)으로 영상을 분해한 후 기저 영상과 세부 영상에 각각 다른 가중치 맵을 적용하여 독립적으로 합성한 후 휘도 채널에서 기저층과 세부층을 합성하고 색 채널에서 색 보상을 거쳐 최종 영상이 생성된다. 기저층 합성은 주야간의 근적외선 분포 특성에 맞게 국부 대비를 줄이도록 진행되고 세부층의 합성은 가시광 영상에서는 표현되지 못하는 세부 정보를 근적외선 영상에서 취득하고 근적외선 영상에서 야간에는 IR 보조광에 의해 포화되는 영역과 주간에는 매질에 따라 근적외선이 통과하지 못하는 영역에 대한 세부 정보를 고려하여 진행된다. 마지막으로 가시광 영상의 휘도 채널과 합성 휘도 채널의 변화 비를 이용한 색 보상 단계를 거쳐 결과 영상을 생성한다.


Ⅱ. 관련 연구
2.1 가시광 영상과 근적외선 영상 합성

시각적으로 인지 가능한 가시광의 파장 대역은 400 ~ 800nm 이고 야간 적외선 보조광을 활용하는 파장 대역은 800 ~ 1500nm 정도이다. 근적외선은 대기 중에서 미립자에 의한 산란 효과가 적어 물체의 대비와 선명도가 강한 영역이 존재하지만 매질에 따라 근적외선이 통과하지 못하는 경우 영상 정보가 포함되지 못하기도 하고 색 성분 표현에 불리함을 가진다. 이러한 특성을 고려하여 가시광 및 근적외선 영상을 모두 촬영한 후 개선된 영상을 융합 재생할 수 있다. 따라서 가시광 및 근적외선 영상 합성은 주로 가시광과 근적외선 영상의 국부 대비를 통해 정보 가시성을 측정하고 영상 전체의 경계와 질감이 최대한으로 표현되도록 합성 비를 제어 한다. 특히 야간의 IR 보조광 영상뿐만 아니라 주간에 안개나 연기 또는 그늘진 영역이 많은 조건에서 가시광 영상과 근적외선 영상의 합성을 통해 사물의 가장자리의 정확한 판단에 유용하게 쓰일 수 있다[1]-[5].

대표적으로 Vanmali가 제안한 가시광 및 근적외선 영상 합성 알고리즘은 국부 대비와 국부 엔트로피 및 가시성을 측정하여 가중치 맵을 만들어 영상을 합성한 후 색상 및 선명도 보정의 과정을 거쳐 결과 영상을 합성하였다[2]. 그러나 합성 시 근적외선 영상의 세부정보를 잘 전달하지 못하고 과도한 색 보상과 경계 강조 필터가 정보를 부자연스럽게 왜곡하는 문제가 있다[6].

2.2 결합형 양방향 필터(Joint bilateral filter)

본 논문에서 휘도 포화 검출을 위해 경계 보존 특성을 가진 저주파 통과 필터 중 결합형 양방향 필터를 이용한다. 경계 보존 특성을 가진 저주파 통과 필터인 양방향 필터는 성능이 우수하여 많은 분야에서 이용된다. 양방향 필터는 인접 화소와의 거리차이, 강도차이에 대해 각각에 대한 두 개의 가우시안(Gaussian) 함수를 사용한다[7]. 양방향 필터 B는 다음 식과 같이 구해진다.

BIi,j=1WPy=-hwhwx=-hwhwIi+x,j+ygrIi+x,j+y-Ii,jgdx,yWp=y=-hwhwx=-hwhwgrIi+x,j+y-Ii,j                                                                        gdx,y(1) 

여기서 I(i, j)는 입력 영상, hw는 커널의 크기, gr은 인접 화소와의 색상 차에 의해 블러 가중치를 조절하는 경계 보존 목적의 가우시안 함수, gd는 공간 영역에서 인접 화소와의 거리 차에 따라 블러 가중치를 조절하는 가우시안 함수를 의미한다. 이 때 가우시안 함수 gr, gd 은 각각 표준 편차 σr, σd에 의해 그 너비가 결정된다. Wp는 정규화 항을 의미한다.

그러나 양방향 필터는 단일 영상을 이용한다는 점에서 디노이징(Denoising)에 한계를 보여 Eisemann과 Petschnigg 등은 신호 대 잡음 비(SNR)에 강한 플래시(Flash) 영상을 추가적으로 이용하여 기존 2개의 가우시안 함수에 추가적으로 인접 화소와의 변위 차에 대한 항을 적용하는 결합형 양방향 필터를 제안하였다[8]-[10]. 이러한 결합형 양방향 필터는 2개의 영상을 입력받아 상대적으로 경계 정보가 잘 보존된 영상의 경계 정보를 이용하여 나머지 영상의 블러링 가중치를 조절하여 단일 영상에서 적용하는 양방향 필터에 비해 더 경계가 잘 보존된 영상을 취득하기 위해 사용된다[11]. 결합형 양방향 필터 JB는 다음 식과 같이 구해진다.

JBIi,j=1WPy=-hwhwx=-hwhwIi+x,j+y       grFi+x,j+y-Fi,jgdx,yWp=y=-hwhwx=-hwhwgrFi+x,j+y-Fi,j                                                                            gdx,y(2) 

여기서 인접 화소간의 색상 차에 따라 블러 가중치를 조절하는 항 gr(∥F(i + x,j + y) - F(i,y)∥)이 양방향 필터와 다르게 영상 I의 강도 차이 대신에 영상 F의 강도 차이를 이용한다. 영상 F는 상대적으로 경계 정보가 잘 보존된 영상을 사용한다.


Ⅲ. 제안 알고리즘
3.1 기저층 세부층 영상 분해(Base-detail layer decomposition)

본 논문에서 제안하는 가시광 및 근적외선 영상 합성 알고리즘을 그림 2에 나타내었다. 먼저 두 입력영상에서 LAB 색 공간 변환(Color space conversion)을 통해 합성 대상이 되는 휘도 성분을 분리한다. LAB 색 공간의 영상은 색차 채널과 휘도(Luminance) 채널이 분리되어 있어 영상의 색 정보와 휘도 정보를 독립적으로 처리할 수 있다는 장점이 있다. 다음 두 영상을 기저층과 세부층으로 분해하기 위하여 양방향 필터를 적용한다. 양방향 필터는 강한 경계 성분을 보존하고 세부 정보를 블러링(Blurring)하여 기저층 영상을 얻는다. 또한, 결과 영상과 휘도 채널 영상과의 차를 통해 세부층을 획득한다[12](그림 3).


Fig. 2. 
Flowchart of proposed algorithm


Fig. 3. 
Image decomposition by the bilateral filter

양방향 필터를 이용한 영상 분해는 다음과 같다.

LBi,j=BLi,j(3) 
LDi,j=Li,j-BLi,j(4) 

여기서 LB는 LAB 색 공간 휘도 영상 L에 양방향 필터를 적용시켜 구한 기저층 영상이고 LD는 휘도 영상과 기저층 영상으로부터 구한 세부층 영상이다.

3.2 기저층 합성

분리된 가시광 영상의 기저층과 근적외선 영상의 기저층은 적외선 자연광 및 보조광 특성에 따라 다른 가중치 맵을 형성하여 합성된다. 주간 영상의 경우 근적외선 영상에서 IR 자연광에 의한 광침투 및 확산 현상이 원거리 지역, 안개 속이나 그늘진 영역 등에서 가시광 영상에 비해 큰 가시성이 확보된다. 반면에 야간의 경우 광량 부족을 보완하기 위해 IR 보조광을 사용하게 되며 야간 근적외선 영상에서 원거리 IR 침투 현상은 미약하며 IR 플래시에 의해 근거리 휘도 포화 현상이 상대적으로 강하게 나타난다.

기저층 합성의 주된 목적은 가시광 영상과 근적외선 영상의 합성 비 조절을 통한 로컬 백그라운드 톤 압축(Local background tone compression)에 있다. 이는 디스플레이의 제한된 휘도 범위 안에서 기저층의 국부 톤 범위를 압축하여 세부층의 표현 성능을 향상시키고 선명도를 개선할 수 있다. 따라서 시인성을 저해하는 역광, 그늘 등의 저휘도 영역에서는 휘도 값이 상대적으로 큰 근적외선 영상의 합성 비율을 증가 시키고 야간 보조광에 의한 전방 포화 영역 같은 고휘도 영역에 대해서는 상대적으로 휘도 값이 작은 가시광 영상의 합성 비율을 증가 시켜야 한다.

그림 4(a)와 같이 왼쪽 가시광 휘도 영상은 평균적으로 낮은 레벨의 음영정보를 가지고 있고 오른쪽 근적외선 휘도 영상은 확장된 대역 성분으로 인해 평균적으로 밝고 포화 영역이 많이 발생된다. 이러한 낮은 음영 및 포화 영역에 대해 영상 합성 비를 조절해야한다. 강한 경계 성분에 따라 국부 영역을 나누고 세부 정보들이 제거된 합성 맵으로부터 톤을 압축하기 위해 경계 보존(Edge preserving) 특성을 가진 양방향 필터를 이용하였다. 그림 4(b)는 물체의 강한 경계를 보존하기 위해 경계 보존 필터인 양방향 필터를 이용한 양방향 필터 맵을 가시화 한 영상이고 그림 4(c)는 양방향 필터를 이용한 기저층 합성 결과를 나타낸다. 각 합성 맵에 사용된 양방향 필터 및 근적외선 영상의 경계 정보로 블러시킨 VIS-IR 결합 양방향 필터의 구성식은 다음과 같다.

MAPBi,j=NBLVISi,j(5) 
MAPJBi,j=NJBLIRLVISi,j(6) 
NIi,j=Ii,jmaxIi,j(7) 

Fig. 4. 
Comparison of results based on the bilateral filter map and the luminance saturation region map, (a) Visible light and near-infrared intensity image, (b) Bilateral filter map, (c) Base layer synthesis result with the bilateral filter map, (d) Joint bilateral filter map, (e) Base layer synthesis result with the joint bilateral filter map

여기서 MAPB는 양방향 필터 맵이며 식 (1)에서 입력 영상 I 에 가시광 휘도 영상 LVIS를 대입하여 양방향 필터를 적용시킨 영상을 의미한다. 또한 MAPJB식 (2)에서 입력 영상 I 에 가시광 휘도 영상 LVIS를 그리고 경계 정보를 이용하여 블러 가중치를 결정하는 입력 영상 F 에는 근적외선 휘도 영상 LIR을 대입하여 구한 결합형 양방향 필터 맵이다. N은 영상을 0~1 사이의 값으로 정규화하기 위한 함수이다.

그러나 물체의 강한 경계를 보존하기 위해 양방향 필터 맵(그림 4(b))을 이용하여 두 영상을 합성하는 경우, 그림 4(c)에서처럼 물체 세부 정보가 합성 맵에 반영되어 왜곡된 결과가 얻어진다. 가시광의 저휘도 영역에서 근적외선 영상의 합성 비율이 높아지게 되는데 제한된 어두운 글자 부분에서 근적외선 영상의 고휘도 영역이 과도하게 합성되었다. 따라서 결합형 양방향 필터를 이용하여 합성 맵 작성 시, 근적외선 영상 합성 비율이 높아지는 가시광 저휘도 영역에서 근적외선 영상의 인접화소 강도가 반영하도록 하였다. 따라서 식 (6)의 근적외선 영상의 경계 정보로 블러시킨 VIS-IR 결합 양방향 필터를 사용한다.

그림 4(d)4(e)는 각각 결합형 양방향 필터 맵과 이를 이용한 합성 결과를 보여준다. 합성 맵의 물체 내부 영역이 근적외선 영상의 인접화소 강도에 따라 블러됨이 확인되고 결과 영상에서 국부 톤이 상승되면서 세부 정보는 장점이 잘 합성됨이 확인된다. 그림 5는 가시광 및 근적외선 영상 두 휘도 기저층의 합성 결과와 비교를 위한 가시광 및 근적외선 휘도 기저층의 평균 합성 결과를 보여준다.


Fig. 5. 
Base layer synthesis results, (a) Visible light image base layer, (b) Near infrared image base layer, (c) Average synthesis result of luminance base layers, (d) Proposed base layer synthesis result

다음으로 결합형 양방향 필터와 더불어 주야간에 다르게 나타나는 근적외선 영상의 특성을 반영하여 합성 맵을 추가하였다.

주간의 가시광 영상에서는 그림 6(b)의 나무 중심부와 같이 그늘이나 역광에 의해 시인성을 저해하는 저휘도 영역이 발생하고 이로 인해 경계정보 또한 표현되지 못한다. 반면 주간의 근적외선 영상에서는 그림 6(c)과 같이 나무 그늘 영역에 대해 IR 자연광에 의한 광 침투 및 확산 현상이 발생하여 가시광 영상에 비해 큰 광량을 확보하고 경계정보를 포함하여 가시성이 증대된다. 이러한 주간 근적외선 영상의 특성은 그림 6(d)에서 가시광 및 근적외선의 차 영상을 통해 가시화하였고 IR 침투가 발생한 영역에서 큰 차이가 발생하는 것을 확인할 수 있다.


Fig. 6. 
Color maps of daytime images

야간 가시광 영상에서는 그림 7(b)의 상자 속과 같은 그늘영역에 대해 경계 정보 표현이 미약하며 평균적으로 낮은 레벨의 휘도 값을 가진다. 반면 야간 근적외선 영상 그림 7(c)에서는 IR 보조광을 사용하여 상자 속 광량 부족을 보완하며 상자 속 컬러 차트의 경계 정보 또한 확보하였다. 하지만 자연광과 달리 보조광은 원거리 IR 침투 및 확산 현상이 미약하며 IR 플래시의 전방 투사로 인한 근거리 휘도 포화 현상이 상대적으로 강하게 나타난다.


Fig. 7. 
Color map of nighttime image

이는 보조광을 사용하는 야간 영상에서만의 특성으로 그림 7(d)에서 상자 속과 컵 영역을 비교했을 때 전방 포화 현상이 발생하는 컵 영역에서 휘도의 변화폭이 더 크게 발생하는 것을 통해 확인할 수 있다. 따라서 주간의 가시광 및 근적외선 차 영상은 밝을수록 IR 광 침투 현상을 반영하고 야간의 가시광 및 근적외선 차 영상은 밝을수록 IR 보조광에 의한 전방 휘도 포화 현상을 나타낸다. 이러한 주야간 영상의 특성을 고려하여 합성하기 위해 야간에는 IR 깊이(Depth) 보상 맵을, 주간에는 IR 침투(Penetration) 보상 맵을 적용한다.

야간 근적외선 영상은 전방의 IR 보조광을 사용하기 때문에 가시광 영상과 휘도 값의 차이는 카메라에 인접한 물체에서 과포화(Oversaturation) 현상이 발생하고 멀어질수록 차이가 약해지는 깊이 맵의 특징을 보인다. 따라서 근적외선 영상에서 보조광 투사로 인한 전방 포화 영역에서는 경계 정보가 잘 보존되도록 포화가 발생하지 않은 가시광 영상의 합성 비율을 증가시켜야 한다. 이 때 양방향 필터를 적용한 기저층 영상의 차 영상을 이용하여 로컬 톤 매핑(Local tone mapping) 시에 발생할 수 있는 헤일로(Halo) 현상을 최소화한다. 깊이 보상 맵은 다음과 같이 구해진다.

MAPdepi,j=NLB-IRi,j-LB-VISi,j(8) 

여기서 깊이 보상 맵 MAPdep는 값이 클수록 근거리 포화영역이 되고 가시광 기저층 비율을 높인다. LB_ VISLB_IR 는 각각 가시광 영상과 근적외선 영상의 기저층 영상이다.

주간 영상에서는 보조광을 사용하는 야간 영상과 달리 근적외선 자연광에 의한 광 확산 및 침투 현상이 발생한다. 야간 영상과 달리 원거리 영역의 밝기 레벨은 가시광 영상이 높을 수 있으며, 가시광 및 근적외선 차는 절대 값을 사용한다. 차이 값이 큰 영역은 IR 광 침투에 의해 시인성이 개선될 수 있는 영역이므로 경계 정보 확보를 위해 근적외선 영상의 합성 가중치를 높여야 한다. 다만 주간 영상의 경우 가시광 영상의 밝은 영역의 평균 휘도가 야간 영상보다 높기 때문에 가시광 영상의 고휘도 영역에서 합성 포화 현상이 발생될 수 있다. 따라서 주간 기저층 합성은 가시광 및 근적외선 차 영상에서 차이 값이 클수록 근적외선 기저층 영상의 비율을 높이되 이는 가시광 영상의 저휘도 영역에 대해 제한적으로 적용하여야 한다. 따라서 다음과 같이 침투 보상 맵이 구해진다.

MAPpeni,j=absLB-VIS(i,j-LB-IRi,j                               ×(1-NLB-VISi,j)(9) 

여기서 침투 보상 맵 MAPpen값이 클수록 근적외선 침투 보상 영역이 되며 근적외선 영상의 기저층 비율을 높인다. obs(LB_ VIS(i,j) - LB_IR(i,j))항과 (1 - N[LB_ VIS(i,j)])항은 각각 IR 광 침투 영역과 가시광 영상의 저휘도 영역을 나타낸다. 2가지 영역 수치를 AND 조건으로 하여 근적외선 영상의 비율을 높인다.

앞에서 구한 VIS-IR 결합 양방향 필터와 주야간 영상에 따른 추가 보상 맵을 이용하여 다음과 같이 최종적인 기저층 합성 맵과 합성 영상을 얻는다.

여기서 기저층 합성 맵 MAPbase는 값이 클수록 가시광 기저층 비율이 높다. Lbase는 휘도 기저층 합성 결과 영상이고 위에서 생성한 주간과 야간 영상의 기저층을 기저층 합성 맵을 가중치로 알파 블랜딩(Alpha blending) 방법을 이용하여 합성한다.

MAPbase=   MAPJB+MAPdep2if night modeMAPJB+1-MAPpen2if day mode(10) 
Lbase=MAPbaseLB-VIS+1-MAPbaseLB-IR(11) 
3.3 세부층 합성

세부층 합성의 주된 목표는 가시광 영상과 근적외선 영상의 활동도에 따라 경계 정보를 최대한 포함하여 합성하는 것이다. 가시광 영상은 원거리 지역, 안개 속이나 그늘진 영역 등에서 경계 정보가 소실되고 근적외선 영상에서는 보조광에 의한 휘도 포화 영역이나 근적외선이 통과하지 못하는 수면 아래의 경계 정보들이 표현되지 못한다. 따라서 합성을 위해 가시광과 근적외선 영상의 세부층 활동도를 국부 분산(Local variance)을 통해 계산하고 그 차이에 따라 합성 비율을 조절할 수 있는 분산 맵(Variance map)을 이용한다.

본 논문에서는 영상의 활동도 측정을 위해 연산의 복잡도가 낮은 평균 편이 국부 분산(Mean deviated local variance)을 이용하였다. 평균 편이 국부 분산은 커널의 화소 값 각각을 고려하지 않고 중심 화소 주위의 화소들의 평균값과의 차이를 이용하므로 커널 내의 화소 값의 변화분포를 잘 나타낼 수 있다. 평균 편이 국부 분산은 다음 식과 같이 계산한다.

Vi,j=1Ni,jηIx,y-μi,j2(12) 
μi,j=1Ni,jηIx,y(13) 

여기서 V는 평균 편이 국부 분산을, μ는 국부 평균을 나타낸다. η는 커널의 크기를 의미하고 제안 방법에서는 η = 5를 이용하였다.

국부 분산 영상은 각 가시광 및 근적외선 영상의 세부 경계 정보를 담고 있다. 국부 분산의 계산과정에서 휘도 채널의 제곱 항이 포함되기 때문에 분산 값은 0~2552의 값을 가질 수 있다. 이 경우 값의 매우 범위가 넓기 때문에 최소-최대 정규화(Min-max normalization) 방법을 이용하고 분산 값이 작은 경우는 무시될 수 있다. 따라서 스케일(Scale)을 조절하기 위하여 log 함수를 취한다. 그리고 두 분산 영상의 차 영상을 구하여 특정 영역에서 가시광 영상과 근적외선 영상 중 어느 영상이 더 많은 세부 정보를 포함하고 있는지의 판단 지표로 이용한다. 다음 식은 가시광 및 근적외선 영상의 국부 분산 log 스케일 차 영상을 나타낸다.

Vardiffi,j=logVVISi,j+1VIRi,j+1(14) 

여기서 Vardiff 는 log 스케일의 국부 분산 차 영상을 나타낸다. VVISVIR는 각각 가시광 및 근적외선 영상의 평균 편이 국부 분산 영상이다.

그리고 음수의 값을 포함하는 log 스케일 차 영상을 0~1 사이의 값으로 변환하여 합성 맵으로 사용할 수 있도록 정규화 과정을 거친다. 국부 분산 차 영상(Vardiff)이 음수이면 근적외선 영상의 세부 정보가 상대적으로 많은 영역이고 양수이면 가시광 영상의 세부 정보가 상대적으로 많은 영역을 의미하므로 합성 맵의 값이 클수록 가시광 영상의 세부층 비율을 높이기 위하여 분산 차 영상이 음수일 때는 0~0.5 사이의 값으로 양수일 때는 0.5~1 사이의 값으로 정규화한다.

MAPvar= 0.5VardiffmaxVardiff+1,for Vardiff0-0.5VardiffminVardiff-1,for Vardiff<0(15) 

여기서 MAPvarVardiff 을 0~1 사이의 값으로 제안 정규화 식을 적용한 분산 맵이다.

최종적인 세부층 합성 맵은 분산 맵에 블러 함수를 적용하여 다음과 같이 생성한다.

MAPdetail=GMAPvar(16) 
GIi,j= Ii,jy=-hwhwx=-hwhwe-i+x22σx2+j+y22σy2(17) 

여기서 G는 2차원 가우시안 필터를 나타내고 σx, σy는 각각 x, y 방향의 표준 편차를 의미한다. MAPdetail 은 자연스러운 합성을 위해 MAPvar 에 가우시안 필터를 적용하여 블러시킨 세부층 합성 맵이다. 본 논문에서는 σx = σy = 7을 적용하였다.

이렇게 생성한 세부층 합성 맵(MAP var)을 이용하여 다음 식과 같이 합성을 진행한다.

Ldetail=    MAPdetailLD-VIS+1-MAPdetailLD-IR(18) 

여기서 Ldetail 은 휘도 세부층 합성 결과이고 위에서 생성한 주간과 야간 영상의 세부층을 세부층 합성 맵을 가중치로 알파 블랜딩(Alpha blending) 방법을 이용하여 합성한다.

그림 8은 가시광 및 근적외선 영상의 세부층과 최종 세부층 합성 결과를 나타낸다. 컵부분과 박스 부분의 디테일 모두 잘 보존 되었다.


Fig. 8. 
Result of detail layer synthesis, (a) Visible light image detail layer, (b) Near infrared image detail layer (c) Detail layer synthesis result

위의 과정으로 독립적으로 합성한 기저층과 세부층을 합성하여 최종적인 합성 휘도 채널 Lfused 을 다음과 같이 생성한다.

Lfused=Lbase+Ldetail(19) 
3.4 채도 보상

색채 정보는 가시광 영상의 ab 채널을 사용한다. 두 영상의 휘도 채널 합성에 의해서 기존의 가시광 영상의 휘도 채널 L에 변화가 생겨 색 채널 ab와 불균형이 발생하여 색 표현이 부자연스러워진다. 따라서 가시광 영상의 색 채널(aVIS, bVIS)에 대해 가시광 영상의 휘도 채널(LVIS)과 합성 후의 휘도(Lfused)의 비를 이용한 채도 보상이 필요하며 다음과 같이 채도 보상 함수를 계산한다.

CC=    MAPbaseLfusedLVIS+0.001γ+1-MAPbase(20) 
a'=aVIS-128×CC+128b'=bVIS-128×CC+128(21) 

여기서 CC는 채도 보상비이고 가시광 영상과 휘도 합성 결과의 변화 비를 통해서 휘도 값의 변화폭에 따라 채도 보상을 달리한다. 이 때 분모에 0.001을 더해주어 CC 보상 이득이 발산하는 것을 방지한다. 또한 기저층 합성 맵을 통해 블랜딩 과정을 거쳐 영상의 경계 부분에서 과도한 채도 보상이 일어나는 것을 방지한다. γ는 사용자 제어 값으로 본 논문에서는 0.5로 적용하였다.

그리고 식 (21)에서 aʹ, bʹ은 각각 채도가 보상된 색 채널이고 aVIS, bVIS는 가시광 영상의 채도 보상 전의 색 채널이다. 기본적으로 aVIS, bVIS에 CC를 곱해서 휘도 변조에 대한 채도 보상을 수행한다. 이 때 채도 채널 범위의 중앙값을 0으로 만들기 위해 128을 빼준 후 CC를 곱하여 다시 128을 더하여 중앙값이 128이고 균일하게 분포된 채도 채널을 획득할 수 있다. 이렇게 얻어낸 채도 aʹ, bʹ와 합성 휘도 Lfused를 이용하여 다시 색공간 변환 과정을 거쳐 최종 합성 영상을 취득한다.


Ⅳ. 실험 결과

제안 알고리즘의 성능 평가를 위하여 다양한 합성 맵을 이용한 합성 결과를 제시하고 그에 따른 결과 비교를 수행하였다. 또한 기존의 대표적인 가시광 근적외선 합성 방법인 다층 해상도 합성 방법과 딥러닝 기반 합성 방법을 이용한 결과를 비교하였다. 실험에 사용한 주간 영상은 IR cut filter와 VIS cut filter를 번갈아 적용하여 촬영한 영상으로 EPFL에서 공개한 Dataset을 이용하였다[12]. 따라서 입력 영상은 가시광 영상과 적외선 영상으로 취득된다. 야간 영상은 영상 센서 수광 대역이 가시광에서 근적외선 영역(약 1,000nm)에 이르는 광대역 카메라 모듈을 이용하여 IR cut filter가 제거된 상태에서 IR 보조광을 스위칭하며 촬영한 영상을 이용하였다. 따라서 입력 영상은 가시광 영상과 영상 전반에서 붉은 색이 나타나는 광대역 영상으로 취득된다. 광대역 영상은 가시광 및 근적외선 영상이 합쳐진 영상을 말하며 본 논문에서는 광대역 영상의 색상 채널을 사용하지 않으므로 근적외선 영상과 같은 의미로 사용하였다.

그림 9는 다양한 기저층의 합성 맵에 따른 합성 결과 성능을 비교하고 있다. 양방향 필터 맵, 결합형 양방향 필터 맵, 그리고 제안 합성 맵에 의한 결과 영상을 보여준다. 그림에서 확인할 수 있듯이 제안 기저층 합성 맵을 이용한 결과 영상은 컵과 상자 안의 세부 정보가 잘 담긴 것을 확인할 수 있다.


Fig. 9. 
Comparison of various synthesis results

그림 10-12는 주간 영상에 대한 합성 결과를 보여주고 있다. Densfuse 합성 방법과 비교하여 제안 방법은 가시광 영상의 그늘 영역에서 기저층의 휘도 범위 압축이 잘 이루어져 해당 영역의 세부 정보에 대한 가시성이 우수한 것으로 확인된다. 또한 Vanmali 합성 방법에서는 건물과 지붕 등 영상 전반에 걸쳐 붉은 색이 강하고 과채도 증상이 나타나고 화이트 밸런스가 맞지 않는 등 원 영상과 다른 색감을 보이는 증상이 있다.


Fig. 10. 
Daytime input and result images(1), (a) Visible light image and near infrared image, (b) Densfuse method result, (c) Vanmali method result, (d) Proposed method result


Fig. 11. 
Daytime input and result images(2), (a) Visible light image and near infrared image, (b) Densfuse method result, (c) Vanmali method result, (d) Proposed method result


Fig. 12. 
Daytime input and result images(3), (a) Visible light image and near infrared image, (b) Densfuse method result, (c) Vanmali method result, (d) Proposed method result

반면 제안 방법에서는 과채도 현상이 없이 가시광 영상의 원래 색을 자연스럽게 표현한다. 또한 그림 10의 산의 세부정보, 그림 11의 나뭇잎의 경계 정보나 그림 12의 물결에 대한 세부 정보 표현 등에서 기존의 2가지 합성 방법에 비해 제안 방법이 세부 정보들을 잘 표현하고 있음을 확인 할 수 있다.

그림 13-15에서는 야간 영상에 대한 성능 비교를 보여준다. 야간 영상에서는 기존 Densfuse 합성 방법에 비해 제안 방법은 그림 13의 상자 내부나 그림 15의 문 밖 영역과 같이 가시광 영상의 어두운 영역에서 밝기를 증가시켜 가시성이 개선되었다.


Fig. 13. 
Nighttime input and result images(1), (a) Visible light image and near infrared image, (b) Densfuse method result, (c) Vanmali method result, (d) Proposed method result


Fig. 14. 
Nighttime input and result images(2), (a) Visible light image and near infrared image, (b) Densfuse method result, (c) Vanmali method result, (d) Proposed method result


Fig. 15. 
Nighttime input and result images(3), (a) Visible light image and near infrared image, (b) Densfuse method result, (c) Vanmali method result, (d) Proposed method result

그림 13의 컵의 글씨나 그림 14의 책의 글씨 등에서 세부 정보를 더 잘 표현하여 식별성이 우수함을 확인할 수 있다. 또한 Vanmali 합성 방법은 가시광 영상의 어두운 영역에서 과채도 보상에 의해 블록 노이즈(Block noise)가 발생하여 영상 전반에 걸쳐 식별성을 떨어뜨린다. 하지만 제안 방법에서는 기존의 2가지 방법에 비해 과채도 증상과 노이즈 없이 세부 정보가 잘 드러나 자연스러운 원래의 색을 표현하면서 우수한 세부 정보 표현 성능을 보인다.

추가적으로 정량적 평가를 위해서 영상 품질 및 선명도를 평가하는 지표 LPC-SI(Local Phase Coherence-Sharpness Index)와 S3(Spectral and Spatial Sharpness) 그리고 EI(Edge Intensity)를 사용하였다[13]-[15].

LPC-SI는 복소 웨이블릿 변환(Wavelet transform) 영역에서 시각적으로 두드러지는 객체 또는 영역은 강한 국부 위상 코히어런스(Strong local phase coherence)가 발생한다는 점을 이용한 영상의 선명도 평가지표이다.

LPC-SI의 값이 클수록 영상의 화질과 선명도 측면에서 성능이 우수함을 의미한다. S3는 사람이 인지 특성을 고려한 선명도 맵(Sharpness map)을 생성하며 국부적인 값이 클수록 시작적으로 선명한 영역을 나타낸다. 이를 영상 전반에서 영상의 품질과 선명도를 평가할 때 사용한다. EI는 Sobel 연산자를 이용한 경계 정보를 바탕으로 영상의 품질과 명료도를 평가할 때 사용하고 값이 클수록 성능이 좋음을 의미한다.

그림 16-18은 실험 영상 결과의 정량적 평가를 LPC-SI와 S3 그리고 EI의 결과 그래프로 표시한 것이다. 제안 합성 방법은 평균적으로 기존의 방법 중 가장 높은 성능을 보이는 방법보다 LPC-SI에서 0.7%의 미세한 성능 향상을 보여주며, S3에서 20.8%, EI에서 35.4% 정도의 비교적 큰 개선 결과를 보여준다. 따라서 제안 방법이 기존의 합성 방법보다 영상 품질 및 선명도 측면에서 성능이 우수함을 확인할 수 있다.


Fig. 16. 
Evaluation of LPC-SI performance


Fig. 17. 
Evaluation of S3 performance


Fig. 18. 
Evaluation of EI performance


Ⅴ. 결 론

본 논문에서는 주야간의 다양한 주변 광 조건에서 효과적인 가시광 및 근적외선 영상 합성을 위해양방향 필터를 이용하여 영상 기저층과 세부층으로 분해하고 각각 주야간 광 특성이 반영된 합성 맵을 적용하여 독립적으로 합성하였다. IR 보조광의 사용 여부에 따라 주간 영상과 야간 영상으로 나누어 근적외선의 전파 특성을 반영한 서로 다른 기저층 합성 맵을 제안하여 영상의 세부 정보 표현에 유리한 기저층을 합성하고 세부 정보의 표현성능을 높혀 우수한 가시성을 확보하였다. 색 보상은 휘도 합성 영상과 가시광 입력 영상의 휘도 비를 통해 수행하였다.

제안된 알고리즘은 기존의 Low rank, Densfuse 그리고 Vanmali 알고리즘과 비교하여 주간 영상 합성 결과에서는 어둡거나 세부 정보가 많이 포함된 영역에 대해서 기저층의 휘도 범위를 압축하여 국부 대비를 증가시켜 선명도 특성을 두드러지게 나타낸다. 또한 영상 전반에서 과채도 현상 없이 원 영상의 색감을 잘 표현한다. 야간 합성 영상에서는 저휘도 영역의 기저층 톤 매핑을 통해 식별성을 확보하고 블록 노이즈 문제를 해결하여 색 표현에서 우수한 세부 정보 표현 성능을 보인다.


Acknowledgments

이 논문은 2021년도 정부(교육부)의 재원으로 한국연구재단의 지원을 받아 수행된 기초연구사업임(NRF-2021R1I1A3049604)


References
1. H. J. Kwon and S. H. Lee, "Visible and Near-Infrared Image Acquisition and Fusion for Night Surveillance", Chemosensors, Vol. 9, No. 4, pp. 75-90, Apr. 2021.
2. A.V. Vanmali and V. M. Gadre, "Visible and NIR Image Fusion Using Weight Map Guided Laplacian Gaussian Pyramid for Improving Scene Visibility", Sādhanā, Vol. 42, No. 7, pp. 1063-1082, Jun. 2017.
3. H. Li and X. J. Wu, "DenseFuse: A Fusion Approach to Infrared and Visible Images", IEEE Transactions on Image Processing, Vol. 28, No. 5, pp. 2614–2623, Dec. 2018.
4. T. Kil and N. I. Cho, "Image Fusion using RGB and Near Infrared Image", Journal of Broadcast Engineering, Vol. 21, No. 4, pp. 515-524, Jul. 2016.
5. Z. Sadeghipoor, Y. M. Lu, and S. Süsstrunk, "Correlation-Based Joint Acquisition and Demosaicing of Visible and Near-Infrared Images", IEEE International Conference on Image Processing, pp. 3165-3168, Sep. 2011.
6. D. M. Son, H. J. Kwon, and S. H. Lee, "Visible and Near-Infrared Image Synthesis Using PCA Fusion of Multiscale Layers", Applied Sciences, Vol. 10, No. 23, pp. 8702-8716, Dec. 2020.
7. S. Paris, "A Gentle Introduction to Bilateral Filtering and its Applications", ACM SIGGRAPH, pp. 3-79, Aug. 2001.
8. C. Tomasi and R. Manduchi, "Bilateral filtering for gray and color images", In Sixth International Conference on Computer Vision(IEEE Cat. No. 98CH36271), pp. 836–846, Jan. 1998.
9. G. Petschnigg, R. Szeliski, M. Agrawala, M. Cohen, H. Hoppe, and K. Toyama, "Digital Photography with Flash and No-Flash Image Pairs", ACM Transactions on Graphics, Vol. 23, No. 3, pp. 664–672, Aug. 2004.
10. E. Eisemann and F. Durand, "Flash Photography Enhancement via Intrinsic Relighting", ACM Transactions on Graphics, Vol. 23, No. 3, pp. 673-678, Aug. 2004.
11. F. Durand and J. Dorsey, "Fast bilateral filtering for the display of high dynamic range images", Proceedings of the 29th Annual Conference on Computer Graphics and Interactive Techniques, pp. 257-266, Jul. 2002.
12. EPFL 2015 EPFL database. Available at: http://ivrg.epfl.ch/supplementary_material/cvpr11/index.html Last accessed in Nov. 2015.
13. R. Hassen, Z. Wang, and M. M. Salama, "Image sharpness assessment based on local phase coherence", IEEE Transactions on Image Processing, Vol. 22, No. 7, pp. 2798-2810, Mar. 2013.
14. C. T. Vu and D. M. Chandler, "S3: a spectral and spatial sharpness measure", In 2009 First International Conference on Advances in Multimedia. IEEE, pp. 37-43, Jul. 2009.
15. B. Rajalingam and R. Priya, "Hybrid nultimodality medical image fusion technique for feature enhancement in medical diagnosis", International Journal of Engineering Science Invention, 2(Special issue), pp. 52-60, Aug. 2018.

저자소개
박 철 우 (Cheul-Woo Park)

2017년 3월 ~ 현재 : 경북대학교 IT대학 전자공학부 학부생

관심분야 : HDR, 영상 처리, Deep Learning, 의료 영상 공학, 이미지 센서, 아날로그 회로, 디지털 회로

권 혁 주 (Hyuk-Ju Kwon)

2010년 2월 : 경북대학교 전자전기 컴퓨터학부(공학사)

2012년 2월 : 경북대학교 전자전기컴퓨터학부(공학석사)

2017년 9월 : 경북대학교 전자공학부(박사후 연구원)

2019년 8월 : 아진산업 선행연구팀 연구원

2019년 8월 ~ 현재 : 경북대학교 전자공학부 계약교수

관심분야 : Color Image Processing, Color Management HDR 영상처리, 적외선 영상처리, 인공지능

이 성 학 (Sung-Hak Lee)

1997년 2월 : 경북대학교 전자공학과(공학사)

1999년 2월 : 경북대학교 전자공학과(공학석사)

1999년 2월 ~ 2004년 6월 : LG전자 영상제품연구소 선임연구원

2008년 2월 : 경북대학교 전자공학과(공학박사)

2009년 8월 ~ 2017년 7월 : 경북대학교 IT대학 전자공학부 연구초빙교수

2018년 3월 ~ 현재 : 경북대학교 IT대학 전자공학부 교수

관심분야 : Color Image Processing, Color Appearance Model, Color Management, HDR 영상처리, 영상융합, 딥러닝영상처리