Korean Institute of Information Technology

Home

The Journal of Korean Institute of Information Technology - Vol. 20 , No. 8

[ Article ]
The Journal of Korean Institute of Information Technology - Vol. 20, No. 8, pp. 151-164
Abbreviation: Journal of KIIT
ISSN: 1598-8619 (Print) 2093-7571 (Online)
Print publication date 31 Aug 2022
Received 19 Jul 2022 Revised 11 Aug 2022 Accepted 14 Aug 2022
DOI: https://doi.org/10.14801/jkiit.2022.20.8.151

가상ㆍ증강현실의 발전 동향과 군 교육훈련 분야 적용방안
노정환* ; 홍창우**
*해군사관학교 기계시스템공학과 교수(교신저자)
**해군사관학교 기계시스템공학과 교수

Technology Trends of Virtual Augmented Reality and Application to Military Education and Training
Junghwan Ro* ; Chang Woo Hong**
Correspondence to : Junghwan Ro Dept. of Mechanical and Systems Engineering, Republic of Korea Naval Academy, 1 Jungwon-ro, Jinhae, Changwon, Korea Tel.: +82-55-907-5313, Email: noru19@korea.kr


초록

4차산업혁명 기술 중 가상ㆍ증강현실 기술은 최근 급격한 요소기술의 발전과 함께 다양한 분야의 어플리케이션 개발이 활발히 이루어지는 중이며, 특히 위험성이 크고 비용이 많이 소모되어 반복적인 숙달이 제한되는 군 교육훈련 분야에 적용 시 상당한 비용 절감과 전투력 향상 효과가 기대된다. 본 논문에서는 가상ㆍ증강현실 교육훈련 체계 개발을 위한 주요 요소 기술들인 디스플레이 기술, 객체 인식 및 추적 기술, 영상합성 기술, 상호작용 기술의 발전 동향에 대해 살펴보고, 가상ㆍ증강현실 기술이 국방 교육훈련 체계에 적용되기 위해 연구되고 있는 사례들을 소개한다. 마지막으로 군의 교육훈련 분야에 적용하기 위한 가상ㆍ증강현실 기술의 활용과 개발 방향을 제시한다.

Abstract

Among the technologies of the 4th industrial revolution, virtual/augmented reality technologies are being actively developed to be applied to various fields due to the recent rapid advancement of key technologies. By applying the technologies to military education and training, significant cost reduction and combat power improvement effects are expected. This research examines the development trends of display technology, object recognition and tracking technology, image rendering technology, and interaction technology, which are key technologies for the development of virtual/augmented reality education and training systems. In addition, cases in which virtual and augmented reality technologies are being studied for application in defense education and training systems are reviewed. Finally, the research and development direction of virtual/augmented reality technology-based military education and training systems are discussed.


Keywords: augmented reality, virtual reality, education, military training

Ⅰ. 서 론

최근 가상ㆍ증강현실, 사물인터넷, 인공지능, 빅데이터, 유전공학, 3D 프린팅, 로봇공학, 나노신소재, 대체에너지 등 4차산업혁명 기술들의 발전이 이뤄지며 다양한 분야에 그 영향을 나타내고 있다. 그중에서도 가상ㆍ증강현실 기술을 활용한 메타버스 기술은 미래창조과학부의 ‘미래성장동력 종합실천계획’, 산업통상자원부의 ‘대한민국의 미래를 책임질 9대 국가전략 프로젝트’ 등의 과학기술 정책과제에 선정되어 국가의 미래를 이끌어 나갈 핵심기술로서 주목받고 있다. 지금까지의 가상ㆍ증강현실 기술이 주로 엔터테인먼트에 활용되었다면, 최근에는 가상 세계에 협업 공간을 구성하거나 전시, 의료, 실습 교육, 군사훈련 등의 다양한 분야에 활용하기 위한 응용 프로그램의 개발이 활발하게 이루어지고 있다. 특히, 교육훈련 분야에서는 가상ㆍ증강현실 기술을 활용하여 수학과 과학 등의 기본과목에서부터 의료교육 등 전문 인력의 교육까지 넓은 범위에 걸쳐 연구개발이 진행되고 있다[1]-[3].

전쟁이라는 직무의 특수성으로 인해 실제 경험이 제한되는 군의 특성을 고려했을 때, 이러한 가상ㆍ증강현실을 군 교육훈련 분야에 적용하면 큰 직무능력 향상 효과를 나타낼 것으로 기대된다. 이미 미국과 유럽 등의 선진국 군에서는 특수부대의 전술 숙달, 전장에서의 응급처치, 전투기 조종훈련 등 폭넓은 군사교육 및 훈련 분야에 가상ㆍ증강현실 기술을 적용하고 있으며, 대한민국 해군도 그러한 추세에 뒤처지지 않기 위해 2020년 SMART Navy 종합발전계획을 통해 양성 및 보수교육, 손상통제 교육, 전투체계 통합 교육 등 다양한 교육훈련 목적에 맞는 가상ㆍ증강현실 응용체계를 개발해 군에 적용하려는 계획을 발표한 바 있다[4].

현재 대한민국 국군은 심각한 저출산과 복무기간 단축 등으로 병력이 꾸준히 감소하고 있으며, 그에 따라 전투력을 보존하고 평화 유지에 필요한 전쟁억제력을 발휘하기 위해서는 장비의 첨단화와 고도화를 통해 1인당 발휘할 수 있는 전투력 증대가 필수적인 상황이다. 이러한 첨단장비들은 조작법이 재래식 무기에 비해 복잡하면서도 획득 및 유지비용이 비싸 반복적인 숙달과 훈련이 제한적인 경우가 대부분이다. 이처럼 안전사고의 위험성이나 비용 문제로 인해 학습대상자에게 충분한 반복 숙달 기회가 주어지기 어려운 경우 장비 운용에 필요한 능력의 습득이 제한된다. 이를 극복하기 위해서는 지금 입대하는 장병들이 디지털 세대로 동영상 등의 자료를 이용한 학습에 익숙하다는 점을 고려하여[5], 가상ㆍ증강현실 응용체계를 통해 부족한 장비 운용 경험을 보충하는 방안을 검토하고 개발할 필요성이 있다.

1장에서는 연구를 수행하게 된 배경과 논하는 주제의 범위를 기술하였으며 2장에서는 가상ㆍ증강현실 체계 개발을 위해 필요한 기술들과 각 기술들의 발전 동향에 대해서 정리하였다. 3장에서는 이미 개발되었거나 개발 중인 가상ㆍ증강현실 기반 군 교육훈련 체계의 현황과 적용 효과를 논하고, 4장에서는 앞으로 군 교육훈련 분야에 가상ㆍ증강현실 기술을 효과적으로 적용하고 발전시켜 나갈 방안을 제시한다. 5장에서는 본 논문에서 주장한 바를 간결하게 정리하고 그 한계점과 이후 진행되어야 할 연구 방향을 서술한다.


Ⅱ. 가상ㆍ증강현실 관련 기술

가상ㆍ증강현실 기술은 실제 세계에 가상 요소들을 시각적으로 더하거나 혼합하는 기술을 뜻한다. 가상ㆍ증강현실은 1960년대에 이미 소개되었으나, 다시 주목받은 것은 요소기술들의 발전이 이루어진 2000년대 이후이다[6].

가상현실(VR, Virtual Reality), 증강현실(AR, Augmented Reality)을 포괄하는 개념으로서 혼합현실(MR, Mixed Reality)이라는 용어가 사용되는데, 혼합현실로 구분되기 위해서는 3가지 특성이 있어야 한다[7].

첫째로 실제와 가상 요소가 애플리케이션 내에 혼합되어 있어야 한다. 둘째로, 실시간으로 상호작용이 가능해야 한다. 셋째로, 2차원이 아닌 3차원 공간의 표현이 가능해야 한다. 혼합현실을 가상ㆍ증강현실 등으로 구분하기 위한 현실-가상 연속체는 그림 1과 같다[8].


Fig. 1. 
Reality–virtuality continuum

연속체의 좌측 끝에는 완전한 현실 환경이, 우측 끝에는 완전한 가상 환경이 위치하며 우측으로 이동할수록 가상 요소의 비율이 증가한다. 여기서 현실 요소가 가상 요소보다 많은 영역을 증강현실이라고 칭한다.

1968년에는 HMD(Head Mounted Display)를 활용한 가상현실 시스템이 이반 서덜랜드(Ivan Edward Sutherland)에 의해 개발되었다[9]. 이반 서덜랜드의 시스템은 현대 가상증강현실 기기의 구성요소인 헤드 트랙킹, 렌더링, 상호작용을 이미 전부 구현하였다. 증강현실이라는 용어는 1990년대부터 사용되기 시작하였으며[10], 가상 이미지를 실제 세계에 덧씌우는 것으로 두꺼운 설명서를 대체할 수 있다는 점에서 등장 당시부터 항공 정비 및 시뮬레이션 분야에서 잠재력을 보였다[11]. 가상ㆍ증강현실을 활용한 교육훈련 체계는 3D 공간에 영상을 제공함으로써 내용의 빠른 이해를 돕고 학습자의 학습 참여도를 증가시켜 비교적 쉽게 다양한 전문 행동의 수행 능력을 습득할 수 있음이 알려져 있다[12].

그림 2는 가상ㆍ증강현실 기술을 구현을 위해 필요한 요소기술을 나타낸다. 몰입감이 뛰어난 가상ㆍ증강현실 체계를 개발하기 위해서는 디스플레이 기술, 객체 추적 기술, 영상합성 기술, 상호작용 기술 등의 하드웨어, 소프트웨어 기술들이 종합적으로 요구된다.


Fig. 2. 
Key technologies of virtual/augmented reality applications

2.1 디스플레이 기술

현실과 유사한 가상ㆍ증강현실 세계를 구성하기 위해서는 시각, 촉각, 청각 등의 감각을 인공적으로 구현할 수 있어야 한다. 이 중 시각은 인간이 습득하는 감각 정보의 상당 부분을 차지하기 때문에 시각적인 정보를 전달하는 디스플레이 기술은 가상현실과 증강현실의 중요한 요소기술 중 하나일 수밖에 없다. 이처럼 디스플레이 기술은 가상ㆍ증강현실 기술의 기반이 되며 가상ㆍ증강현실 체계의 일부로서 기능한다. 가상ㆍ증강현실에 주로 사용되는 디스플레이는 휴대용 디스플레이, 투사형 디스플레이, HMD 등 크게 3가지로 분류할 수 있다[13].

휴대용 디스플레이는 스마트폰과 태블릿 PC가 개인에게 보급되면서 저렴한 도입 비용으로 현재 가장 폭넓게 사용되고 있는 디스플레이이지만 가장 낮은 몰입감을 제공한다. 투사형 디스플레이는 공간에 여러 개의 프로젝터나 디스플레이를 결합하여 휴대용 디스플레이에 비해 현실감 있는 가상공간을 제공하고 다수의 사용자가 한 공간에서 동시에 협력할 수 있지만 넓은 공간과 큰 설치비용을 요구하고 이동성이 제한된다. HMD는 휴대용 디스플레이에 비교했을 때 향상된 몰입감을 제공하고 투사형 디스플레이와 달리 넓은 설치 공간을 요구하지 않으나 사용자의 머리에 착용하는 특성상 경량화와 착용감 향상이 사용자 경험에 큰 영향을 미친다[14]. 최근에는 착용 장비의 경량화와 컴퓨터 연산 능력의 향상이 이루어지면서 HMD가 주로 활용되고 있다.

최근에는 사용자가 현실과 가상의 차이를 구별해낼 수 없는 영상을 전달할 수 있는 디스플레이를 실현하기 위해 계속된 개선이 이루어지고 있다. 사용자의 눈에 현실과 차이 없는 시각 정보를 제공하기 위해서는 여러 조건을 만족해야 한다. 우선 화면 시야각이 실제 시야각보다 작으면 몰입감이 떨어지기 때문에 평균적인 인간의 시야각인 좌우 120도, 상하 135도 이상의 디스플레이를 제공하여야 한다[15]. 또한 실제 세계와 달리 HMD는 최소단위인 픽셀로 구성되기 때문에 인간의 시력으로 구분할 수 없는 크기 이하의 픽셀로 영상이 제공되어야 한다. TV 등 기존의 디스플레이와 달리 HMD는 사용자의 눈 가까이에서 영상이 재생되므로 PPI(Pixels Per Inch)가 아닌 PPD(Pixels Per Degree)로 해상도를 측정하며, 시력이 1.0의 사람의 경우 60PPD 이상의 해상도를 만족하여야 픽셀을 구분할 수 없게 된다[16]. 마지막으로 인간의 인지 범위 이상의 시야각과 해상도를 통해 실제와 구분이 어려운 정지화상을 제시하더라도 연속된 화면 전환 간 지연시간이 길면 사용자의 몰입도가 저하된다. 지연시간으로 인한 위화감을 최소화하기 위해서는 20msec 이내의 화면 전환이 요구되지만[17], 지연시간에는 센서 정보 수신, 영상 처리, 영상 수신, 영상 출력 등의 시간이 전부 포함되기에 지연시간을 단축하기 위해서는 복합적인 해결책이 제안되어야 한다. 군사 교육훈련의 경우 사용자의 머리부위를 포함한 신체의 격렬한 움직임이 필요한 경우가 많아 더욱 짧은 지연시간이 요구된다. 이러한 디스플레이 기술의 필요조건들은 앞서 언급한 HMD의 경량화와 서로 상충하기 때문에 조건을 모두 만족하는 디스플레이 개발을 어렵게 한다.

시야각의 경우 이미 1979년에 인간의 시야각 범위 이상인 140도를 만족하는 광시야각 영상 기술이 개발되었으나[18], 당시 디스플레이의 해상도가 현재의 HD(High Definition)/UHD(Ultra High Definition)에 미치지 못해 현실감이 낮았다. 100도 이상의 시야각과 60PPD 이상의 해상도를 동시에 만족시키기 위해서는 6K 이상의 해상도가 필요하다. 21세기 이후 평면디스플레이가 급격하게 발전하면서 현재 개발된 디스플레이 중에는 8K 이상의 해상도를 제공하는 것도 있지만 높은 가격으로 인해 다수의 일반 사용자를 대상으로 하는 가상증강현실 기반 교육훈련에 활용하기에는 아직 적합하지 않다. 이러한 한계를 극복하기 위해 최근에는 사용자의 시선이 주로 위치하는 중심 부분의 해상도를 높이고 주변 부분의 해상도를 낮춘 foveated display에 대한 검토도 이루어지고 있다[19]. 이를 통해 비용 절감과 함께 영상 처리 및 출력 지연시간도 단축할 수 있다.

그에 더해, 증강현실 체계의 디스플레이는 사용자가 디스플레이 너머의 실제 환경을 시각적으로 인지할 수 있어야 한다. 카메라를 활용해 외부 환경을 그대로 불투명 디스플레이에 출력하는 기술은 해상도와 영상 획득 및 출력 지연시간으로 인한 위화감이 생기므로 현재는 반투명한 렌즈를 사용한 광학적 투시 기술의 개발이 주류이다[20]. 사용자는 반투명한 렌즈 너머의 실제 환경과 디스플레이 위에 투사된 가상 객체를 동시에 인식하는 것이 가능하다. 하지만 실제 환경의 빛이 차단되는 비투과형 HMD와 달리 반투명 렌즈를 통해 외부의 빛이 유입되므로 일정 수준 이상의 디스플레이 조도가 요구되며 이를 만족하기 위해 LCoS(Liquid Crystal on Silicon) 기술 등이 연구되고 있으나 더 높은 해상도의 구현과 응답속도 개선이 필요하다[21].

2.2 객체 추적 기술

그림 3은 가상ㆍ증강현실 시스템에서 사용자와 시스템이 상호작용하는 구조를 보여준다[22].


Fig. 3. 
Primary components of VR/AR interaction cycle

가상ㆍ증강현실에서 사용자의 시야에 정확한 영상을 제공하고 정확한 좌표에 가상 객체를 덧씌우기 위해서는 관심 객체를 인지하고 추적하는 기술이 필요하다. 사용자와 가상증강현실 체계의 올바른 상호작용을 위해서는 HMD, 사용자의 팔 등의 신체 부위, 눈의 깜박임, 그리고 주변 환경을 올바르게 파악할 수 있어야 한다[23].

지난 수십 년 동안 정확성, 지연시간과 노이즈를 개선하기 위해 다양한 객체 추적 기술이 연구되었다[24]. 기계적 추적은 1968년 이전 가장 초기에 고안된 기술로 각 관절부에 센서가 설치된 기계 팔을 이용하여 높은 정확성과 짧은 지연시간으로 위치 추적이 가능하다[25]. 하지만 기계적 추적 기술의 한계는 분명한데, 이 기계적 팔을 고정할 천정이나 지면 등의 설치 공간이 필수적이고 사용자의 움직임을 제한한다는 것이다. 관성 센서를 이용한 추적 기술은 가속도계와 자이로스코프를 이용해 관심 객체의 방향과 속도를 측정하며, 미세전자기계시스템(MEMS, Micro Electro-Mechanical System) 기술 발전으로 충분히 소형이면서 정밀한 관성측정장치(IMU, Internal Measurement Unit)가 제작 가능해지며 주목받기 시작하였다. 관성 센서를 이용한 추적 기술은 반응속도가 빠르나 방향과 속도를 구하기 위한 적분 과정에서 필연적으로 발생하는 드리프트(Drift) 오차로 인해 시간이 지날수록 오차가 커지게 된다. 이 오차를 해결하기 위해 다른 객체 추적 기술과 함께 사용하는 경우가 많다. 광학추적은 카메라를 이용하여 얻은 가시광선 또는 적외선 데이터를 해석해 객체와 카메라의 상대적인 위치를 도출한다[26].

광학추적 기술은 크게 인공적인 마커를 이용하는 방법과 마커 없이 카메라 영상만으로 3차원 좌표를 연산하는 방법으로 나뉜다. 특히 단일 카메라를 이용하는 경우 특정한 마커 없이 3차원 좌표를 추출하는 것이 어렵기 때문에 증강현실 개발 초기에는 특정한 색상이나 패턴을 지닌 지정된 마커를 이용하는 마커 인식 기술이 활발히 연구되었다. 하지만 마커를 이용한 객체 추적 기술의 경우 마커가 다른 물체에 가려지는 경우 인식이 불가능하고 마커가 설치된 특정한 장소에서만 기능하며 사용자의 몰입감을 저해하는 등 한계가 뚜렷하다. 이러한 한계를 극복하기 위해, 실제 환경 어디에나 존재하는 비 특정 물건의 모서리나 질감을 인식해 카메라의 방향과 좌표를 구하는 비마커 기반 추적방식이 개발되고 있다[27]. 근래에는 회전이나 조명 변화에도 객체 인식이 가능한 특징점 기반 추적방식도 활발히 연구되고 있다.

실제 가상ㆍ증강현실 시스템에 적용하는 객체 추적 기술은 각 기술의 한계점을 극복하기 위해 여러 기술을 혼합하여 사용하게 된다. 주로 반응속도가 빠른 관성 센서를 이용하여 얻은 좌표를 속도는 느리지만 정확도는 높은 광학추적 기술로 보정 하는 식으로 객체 추적이 이루어진다. 이를 통해 단일 기술을 사용한 객체 추적보다 우수한 성능을 얻을 수 있지만 전체 시스템의 복잡도와 비용은 상승한다.

2.3 영상합성 기술

가상ㆍ증강현실 영상합성 기술은 시뮬레이션 모델을 운용하고 객체를 조작하기 위한 가상의 환경을 생성하는 기술이다. 가상 이미지에 또 다른 가상 이미지를 합성하거나 더 실제에 가까운 환경을 구성하기 위해 빛과 그림자를 표현하는 등의 다양한 기술을 포함한다[28]. 증강현실 영상합성 기술은 카메라로 촬영한 3차원 현실 위에 생성된 가상영상을 이질감 없게 합성하는 기술을 필요로 한다. 이러한 영상합성에는 객체 추적 기술을 이용해 획득한 카메라와 가상 객체 사이의 상대적인 위치정보가 이용된다.

무선 네트워크나 하드웨어를 이용한 영상합성 기술도 있으나 근래에는 개발의 용이성과 높은 안정성을 가진 순수한 컴퓨터 비전 영상합성 기술이 주로 사용된다. 컴퓨터 성능의 향상과 함께 딥러닝 등 기계학습을 영상합성에 적용하여 영상의 질을 향상하려는 연구도 지속되고 있다[29]. 가상ㆍ증강현실 기반 군사 교육훈련 체계의 몰입감 향상을 위해서는 합성된 영상의 질은 유지하면서 영상합성에 걸리는 시간은 최소화하여야 한다.

2.4 상호작용 기술

상호작용 기술은 가상ㆍ증강현실의 콘텐츠를 사용자가 인식하고 조작할 수 있도록 돕는 기술이다. 기존의 컴퓨터에 주로 사용되는 장치인 키보드나 마우스 등의 간접 입력 장치를 가상ㆍ증강현실에 사용하면 사용자의 부자연스러운 동작을 강제함으로써 사용자의 몰입감을 저해하므로 동작이나 음성 인식 등 사용자의 몰입감을 저해하지 않는 간단하고 효과적인 상호작용 기술의 도입이 연구되고 있다[30][31].

동작 인식 기술은 센서 기반 인식과 영상 기반 인식으로 구분된다[32]. 영상 기반 인식은 추가적인 장비 없이 카메라로 촬영된 영상만을 가지고 동작을 인식하는 것이 가능하고 사용자의 행동에 제약이 적다는 장점이 있지만, 계산량이 많아 인식하고 반응하는 데 필요한 처리시간이 길고 격렬한 움직임을 인식하기 어렵다. 센서 기반 인식은 센서로부터 직접 3차원 좌표를 얻으므로 계산량이 적고 반응속도가 빠를 뿐 아니라 인식된 좌표와 동작의 신뢰도가 높지만, 센서가 장착된 추가적인 장비를 요구한다[33]. 음성을 통한 상호작용 기술은 가상ㆍ증강현실 기반 응용체계 이외에도 모바일 기기와의 상호작용 등 실생활의 폭넓은 분야에서 이미 활용되고 있다[34]. 음성을 통한 가상 환경 조작은 우선 음성을 텍스트로 변환하고, 그 텍스트의 의미를 이해하고 그에 맞는 지시를 수행하는 과정으로 이루어진다. 눈동자의 움직임을 통해 상호작용하는 방법도 가상ㆍ증강현실 환경에서 널리 적용되고 있다[35]. 주로 HMD에 장착된 초소형의 적외선 LED와 카메라를 이용해 빛이 각막에서 반사되는 패턴으로 눈동자의 궤적을 인식하고 그에 맞는 명령을 수행하게 된다[36].

이처럼 인간과 가상ㆍ증강현실 체계가 사용자의 몰입감을 해치지 않으면서 더 효과적이고 자연스럽게 상호작용할 수 있도록 많은 연구가 이루어지고 있으며, 그 예로 여러 사용자가 동시에 가상 객체와 상호작용할 수 있도록 하는 기술, 단순히 인간이 의도한 동작과 음성 이외에도 자연스럽게 나타나는 표정을 통해 상호작용하는 기술 등 다양한 시도가 이루어지고 있다.


Ⅲ. 가상ㆍ증강현실 기반 군 교육훈련 체계

가상ㆍ증강현실 요소기술들이 발전하면서 이미 2000년대에도 가상ㆍ증강현실을 건축디자인이나 엔터테인먼트 등에 활용하려는 시도는 있었으나[37], [38], 군의 교육훈련 체계 등 다수의 사용자를 대상으로 하는 응용체계에 본격적으로 활용하기에는 높은 기기 가격이 걸림돌이었다. 이후 2010년대 중반부터 오큘러스 리프트, 홀로렌즈 등 보급형 기기가 출시되며 군에도 가상ㆍ증강현실 체계가 도입되는 사례가 증가하기 시작하였다. 2019년에 이미 대부분의 선진국에서는 가상현실 시뮬레이터를 활용한 훈련체계가 군사훈련에 도입된 바 있으며[39], 2021년에는 미 육군이 마이크로소프트와 218.8억 달러 규모의 계약을 맺어 가상ㆍ증강현실 기기를 교육훈련에 도입하기로 하였다[40]. 이외에도 각 군에서 낙하 훈련, 자살 예방 교육부터 항공기 착함 신호 훈련까지 매우 폭넓은 분야에서 가상증강현실 교육훈련 체계가 도입되었다[41]-[43].

3.1 전술 및 사격 훈련

탄약 보급, 훈련장 확보 및 안전 문제로 인해 대한민국 국군 병사들이 실제 사격 훈련을 할 수 있는 시간은 매우 제한되어 있다. 특히, 해상 사격 훈련은 함정 탄약 보급과 훈련해역 확보, 표적 설치 등에 많은 인적/물적 자원이 소모된다. 이러한 자원의 소모 없이, 기상 상황에 따른 해상 표적의 움직임과 배의 요동을 재현하는 등 실제와 흡사한 환경에서 해상 사격 훈련이 가능한 가상현실체계가 개발 중이다[44]. 마찬가지로 대공무기와 같이 훈련에 소모되는 비용 문제로 실제 장비를 사용한 훈련이 제한되는 경우 가상현실 훈련시스템을 도입하는 것으로 기존의 비디오 교육에 비해 뛰어난 교육성과를 얻을 수 있다[45].

소규모 분대 전술훈련의 경우 물리적으로 건설된 훈련장에서 훈련을 진행하려면 제한적인 상황과 정해진 이동 경로로만 훈련이 가능하다. 초기의 소규모 분대 가상ㆍ증강현실 전술훈련 체계는 실제 도보가 아닌 총기에 부착된 버튼을 통해 이동하고 이동반경과 동시 훈련 가능 인원수가 10명 미만인 등 여러 제한점이 있었으나 최근에는 12명 이상이 동시에 훈련하는 것이 가능하고 훈련자의 실제 움직임이 가상현실에 반영되는 등 더욱 실제와 같은 훈련체계로 발전하고 있다[46].

3.2 양성/보수 및 특기 교육

군에는 많은 병과와 특기가 있으며, 그에 따라 그 특기 중 하나인 의료교육은 군 외부에서도 가상ㆍ증강현실 교육이 활발하게 적용되고 있다[47]. 특히 군에서 자주 발생하는 의료상황에 대한 반복적인 숙달이 가능하도록 구성한 가상현실 교육훈련 체계를 도입함으로써 실제 군 의료상황 발생 시 판단오류와 초기대응 시간을 감소시킬 수 있을 것으로 기대된다[48]. 이외에도 운전 교육, 무인기 운용 교육 등의 특기 교육에서 가상현실을 활용한 시뮬레이터를 이용하면 교육 기간 중 교육생들에게 더 많은 실습 기회를 부여할 수 있다[49].

전술한 바와 같이, 최근 군에서는 최첨단, 기술집약적 무기체계가 다수 도입되면서 정비의 난이도와 소요가 증가하고 있다. 고가의 무기체계를 정비훈련목적만을 위해 각 훈련부대에 갖추는 것은 현실적으로 제한된다. 증강현실 정비훈련 체계를 도입하면 정비 인력이 먼 거리의 교육부대에 방문하지 않고도 필요한 정비 능력을 습득할 수 있다[50]. 또한 해상작전 중인 함정과 같이 정비 인력이 단시간에 파견되기 어려운 경우, 증강현실 정비 교육훈련 체계를 활용한 원격 정비로 큰 이점을 얻을 수 있다.

3.3 승조원 교육

가상ㆍ증강현실을 이용한 군 교육훈련 체계 중 가장 먼저, 적극적으로 도입된 것이 조종사 훈련 플랫폼이다[51]. 조종사 훈련을 위한 모의 비행 훈련 장치는 가상ㆍ증강현실 요소기술의 발전과 함께 성능이 개선되어 근래에는 실제 항공기와 거의 유사한 환경과 조작감을 제공하고 실제 연습이 어려운 긴급한 상황을 반복적으로 훈련할 수 있다. 항공기 조종사에 더해 잠수함과 함정 승조원의 직무 숙달을 위한 가상ㆍ증강현실 훈련 플랫폼도 연구되고 있다. 우리 해군이 개발 중인 가상현실 기반 잠수함 승조원 교육훈련 체계는 안전을 확보한 가운데 실제 위기 상황을 재현하는 등 실전적 훈련을 가능하게 할 것으로 기대된다[52]. 가상현실 항해시뮬레이터는 사관학교 생도들이 거대한 실습함과 승조원을 필요로 하는 실제 항해 실습에 나가기 전 가상현실을 이용해 항해를 사전에 체험함으로써 이론 수업만으로는 이해하기 힘든 함정 전술 기동에 대한 이해도를 높이고 실제 항해 실습 시 효율성을 높일 수 있다[53]. 그 외에도 가상현실을 이용한 함정 화재 상황 대응 훈련체계를 이용하면 실제 함정의 구조와 소화 장비의 배치가 일치하는 가상의 함정 환경을 구현하여 승조원들이 함정과 개인의 생존성에 큰 영향을 미칠 수 있는 화재 대응능력을 습득할 수 있다[54].


Ⅳ. 군 교육훈련 분야 적용 및 발전방안

대한민국 해군은 4차산업혁명 시대에 맞추어 군 발전에 필수적인 핵심기술을 'AI + NAVY(NABI) = U'로 정의하고 각 기술을 적용/발전시켜 나가고 있다. 각각의 기술은 AI, Network, AR/VR, Big data, IoT, Unmanned Maritime System으로 가상·증강현실도 4차산업혁명 시대의 여섯 가지 핵심기술 중 하나로 포함되어 있으며 주로 교육훈련 분야에 적용하려는 시도가 계속되고 있다. 가상·증강현실 기술은 ‘SMART(Strong Maritime forces Accomplished with Revolutionary Technology) Navy’ 추진계획 총 96개 과제 중 9개 과제에 반영되어 분야별로 추진되고 있으며 본 장에서는 이를 소개함과 함께 미래 해군의 교육훈련 분야에 가상·증강현실이 어떻게 적용될 수 있는지와 향후 기술 개발 방향을 제안하고자 한다.

표 1은 현재 해군이 SMART Navy 2045에서 추진 중인 교육훈련 분야 과제 중 가상·증강현실 기술이 활용되는 과제 목록이다. 대부분 재난 대응, 불발탄 처리, 손상통제, 경계 작전, 잠수함 승조원 교육 등 실제 교육훈련에 안전사고 위험이 있거나 훈련비용이 큰 항목에 대하여 가상·증강현실 기술 적용이 추진되고 있는 것을 확인할 수 있다. 또한, 가상·증강현실 기술을 양성/보수 교육체계 모두에 적용함으로써 초임 병/부사관/장교에게 실제 업무나 직무에 앞서 현실감 있는 체험 기회를 부여하려 하고 있다.

Table 1. 
Virtual/augmented reality related projects in the ‘SMART Navy project’
Field Department Project
Education Logistics VR/AR-based disaster experience system
Education Logistics Advanced maintenance education system
Education Logistics Advanced unexploded bomb disposal education system
Training Digitization Drone and AR-based gun fire alignment
Education Military police VR/AR-based safety education
Education/Training Military police VR-based security operation training system
Education Operation VR/AR-based candidate/refresher education
Training Operation Damage control simulation training system
Education/Training Operation VR-based submarine crew training system

각 과제는 주관 부서의 로드맵에 따라 예산/정책 반영 하에 추진되고 있다. 재난 대응 체험 체계나 불발탄 처리 체계, 손상통제 훈련체계 개발은 실제 훈련에서는 체험이 불가한 다양한 위기 상황을 경험할 수 있도록 개발 중이며, 양성/보수교육 및 잠수함 승조원 훈련체계는 실제 작전 시 환경과 최대한 유사한 가상 환경을 구축함으로써 훈련자의 몰입감을 극대화하는 것을 우선하여 개발이 진행되고 있다.

상기한 추진과제 이외에도 함정 실시간 360도 영상전시체계, 함정 지능형 영상식별 체계 등의 항해 지원 체계, Live Virtual Constructive(LVC) 기반 전투체계 통합 교육, 예비군 과학화 훈련체계 등의 실전적 훈련 지원 체계와 첨단기술 기반 운전 교육체계 등의 비전투 기술 숙련 체계 등 다양한 분야에 가상ㆍ증강현실 애플리케이션을 적용하려는 검토가 이루어지고 있다. 현재 검토 중이 아니더라도 가상·증강현실 기술을 접목할 수 있는 분야에 대해서는 지속적인 발굴 및 추가 적용의 필요성이 있으며 일례로 현역 장병의 정신전력 교육 및 예비 입대자 대상 홍보에 활용할 수 있는 연평 해전이나 한산대첩 같은 과거의 전투를 VR로 재현하여 체험이 가능한 체험관 등을 제안할 수 있다.

특히 해군은 함정을 중심으로 작전을 수행하는 특징을 가지고 있으며 개인에게 요구되는 훈련 수준도 높을 뿐 아니라 전체적인 팀워크 수준도 중요하다. 따라서 잠수함 승조원 교육훈련 체계뿐 아니라 일반 수상함의 작전 기능별 개별직무/전체 팀워크 훈련에 가상·증강현실을 활용할 수 있을 것이다. 기존의 팀워크 훈련이 지휘를 중심으로 한 시나리오 기반 수동적 훈련으로 피드백이 제한되었으나 가상·증강현실을 활용한 훈련은 참여자에게 향상된 현실감과 몰입도를 제공할 수 있을 것이 기대된다. 이는 수상함, 잠수함 등의 작전 분야뿐 아니라 함 손상통제 및 정비 분야에도 적용된다. 특정 함정의 환경을 재현하여 진행되는 교육훈련은 실전에서의 능력 발휘를 위해 필수적이기 때문에 기존의 실제 환경의 반영이 불가능한 주입식 훈련을 가상·증강현실을 이용하여 적극적으로 대체하여야 한다.

하지만 가상·증강현실 기술을 군 교육훈련 분야에 잘 정착시켜 실질적인 전투력 상승을 이루어 내기 위해서는 해결해야 할 문제점도 많다. 첫 번째로 민간분야의 발전된 기술이 군사 분야에 도입되는 스핀인(Spin-in) 기술인 가상·증강현실의 경우 불필요한 예산 낭비를 줄이는 것이 필수적이기에 전체적인 로드맵을 제시하는 국방부의 역할이 크다고 할 수 있다. 육해공군을 통틀어 대한민국 국군에서 교육훈련이 차지하고 있는 중요성은 매우 크다. 특히, 가상·증강현실을 활용하여 실시하는 교육훈련 응용체계에 대해 공통되는 플랫폼을 국방부 차원에서 준비할 필요성이 있다. 이는 육해공군 모두에게 해당하는 경계 작전에 대한 교육훈련 체계나 전투 중에 발생할 수 있는 부상에 대한 응급처치/긴급수술에 등의 의료 교육훈련이 해당할 수 있다. 특히 가상·증강현실 기술을 구현하기 위해서는 HMD 등의 가상ㆍ증강현실 기기와 프로그램의 대량 확보가 필수적이므로 전 군의 소요를 검토/수용하여 일괄적인 확보를 진행하는 것이 효율적이다. 마찬가지로 플랫폼 구축과 동시에 현존 및 개발 예정의 함정, 전차, 항공기 등의 내ㆍ외부 3차원 모델을 각 군에서 요구하는 수준에 부합하게 제작함으로써 차후 체계 개발의 용이성을 획득할 수 있다. 이처럼 공통의 플랫폼 확보 이후에는 각 군의 특성화 교육이나 예하 제대에서 자체적인 응용체계 수정, 보완이 가능하게 하여 군 내 인력, 혹은 최소한의 사업으로 기능의 추가가 가능한 확장성을 확보하는 것이 국방부 전체의 예산과 시간을 절약하는 방법이 될 것이다.

두 번째로 가상ㆍ증강현실 이용 교육훈련 체계는 군에서의 고비용 고위험 교육훈련들을 대체하기에 적합하지만, 가상ㆍ증강현실 기반 체계의 환경과 실제 환경과의 유사도가 떨어질 때 기대한 교육훈련 효과를 얻지 못할 수 있다[55]는 것에 주의해야 한다. 이러한 결점을 보완하기 위해 현역/예비역 등 실전 경험이 풍부한 인력을 확보하여 체계개발과정에 기여할 수 있도록 하고 기존 시설의 활용이 아닌 가상ㆍ증강현실을 위한 훈련 시설을 확보하는 등 최대한 실제 상황과 유사한 환경을 제공하여야 한다.

세 번째로 군의 교육훈련 체계는 훈련 자체만이 아닌 그 전의 계획 수립과 시행, 훈련 이후의 성과 기록과 분석에 큰 인력 자원과 시간이 소모되는 것이 특징이므로 가상ㆍ증강현실 기반 교육훈련 체계를 설계할 때 기록 및 평가 분석, 후속 계획 수립과 더불어 가상ㆍ증강현실 교육 프로그램에 대한 보완/개선, 비용 대비 효과분석이 함께 이루어져 효율적이고 일체적인 교육훈련 체계가 될 수 있도록 하여야 한다.

마지막으로, 군에 적용하는 만큼 규정과 보안에 대한 부분을 빼놓을 수 없다. 군 외부의 가상ㆍ증강현실 플랫폼이 주로 오픈소스 기반으로 제작되고 있으나 군 교육훈련 체계 개발에 활용되기 위해서는 철저한 보안성 검토가 필요하다. 또한 빠르게 발전하는 기술에 맞춰 군 가상ㆍ증강현실 교육훈련 체계를 개발해 나가기 위해서는 AR 글라스나 HMD 시스템, 네트워크 장비 등의 빠른 도입이 필수적으로 기술 발달에 따른 신규 장비의 도입과 교체에 관한 부분이 일괄적으로 처리될 수 있도록 규정화하고, 소프트웨어의 경우에는 지속적인 업데이트와 추가 개발, 그리고 군 관련 자료 관리에 따른 실시간 보안대책을 마련하여 실질적인 교육훈련 체계 개발의 바탕이 되는 시스템을 구성해야 할 것이다.


Ⅴ. 결 론

우리가 영화나 게임 등 엔터테인먼트로서 주로 접해 왔던 가상ㆍ증강현실 기술은 4차산업혁명 기술의 발전과 함께 다양한 분야로 적용이 확대되고 있다. 특히, 디스플레이 기술, 객체 추적 기술, 영상합성 기술, 상호작용 기술을 포함한 요소기술들의 발전 속도에 힘입어 군 교육훈련 분야에도 빠른 적용과 검토가 이루어지고 있다.

이에 본 연구에서는 가상ㆍ증강현실 기술과 그 요소기술들의 개발 동향과 군 교육훈련 분야에의 적용 현황을 정리하고 미래 군에 발전시켜 적용하기 위한 개발 방향을 제안하였다. 특히 항공기나 육상병력에 제한되었던 기존의 논의들에 더해 수상함, 잠수함, 항공기, 상륙군의 모든 작전 영역을 아우르는 해군의 미래 추진과제에 가상ㆍ증강현실 기술을 적용ㆍ발전시키는 방안을 살펴보았고, 단순한 효율성 효과성 분석을 통한 개별과제의 우선순위 선정만이 아닌 거시적인 관점으로 고려할 사항들을 제시한 점에서 연구의 의의를 찾을 수 있다.

해외 선진국 군에서는 이미 전술 및 사격 훈련, 양성 및 보수교육, 승조원 교육 등 다양한 교육훈련 분야에 가상ㆍ증강현실 기술을 도입하고 있다. 이에 맞춰 대한민국 해군도 재난 대응 훈련, 경계 작전 교육, 장비 정비 교육, 잠수함 승조원 교육훈련 체계 등을 포함한 폭넓은 범위에 가상ㆍ증강현실 기술을 적용하고자 하고 있다.

이때, 중복적인 투자를 방지하고 투자의 효율성을 극대화하기 위해 과학적인 방법을 통해 교육훈련 체계의 우선순위를 선정하는 등 체계적인 개발이 요구된다. 마찬가지로 비용의 최소화를 위해서는 육해공군의 공통된 가상ㆍ증강현실 응용체계 개발 플랫폼을 구축하는 것이 필수적이다. 실제 기대한 교육훈련 효과를 얻기 위해서는 개발과정에 전문기술을 충분히 숙달한 인원을 참가시킬 필요가 있으며 교육계획 수립 및 교육성과 분석 방법의 개발이 가상ㆍ증강현실 교육훈련 체계 개발과 동시에 고려되어야 한다. 마지막으로, 군 교육훈련 체계의 특성을 고려하여 철저한 보안대책과 훈련 참여자의 격렬한 움직임을 고려한 멀미 대책 등에 대한 추가적인 연구가 필요하다.


References
1. M. Jung and K. So, "The Effect of Science Class with Augmented Reality and Virtual Reality Contents on Elementary Students’ Learning Motivation and Academic Achievement", BIOLOGY EDUCATION, Vol. 49, No. 3, pp. 391-398, Sep. 2021.
2. M. Yoo, J. Kim, Y. Koo, and S. J. Hoon, "A meta-analysis on effects of VR, AR, MR-based learning in Korea", Journal of Korean Association for Educational Information and Media, Vol. 24, No. 3, pp. 459-488, Sep. 2018.
3. R. N. Uppot et al., "Implementing Virtual and Augmented Reality Tools for Radiology Education and Training, Communication, and Clinical Care", Radiology, Vol. 291, No. 3, pp. 570-580, Jun. 2019.
4. D. S. Park, "SMART Navy great voyage plan based on advanced technology of the 4th industrial revolution", Bulletin of the Society of Naval Architects of Korea, Vol. 57, No. 1, pp. 7-10, 2020.
5. K. McKnight, K. O’Malley, R. Ruzic, M. K. Horsley, J. J. Franey, and K. Bassett, "Teaching in a Digital Age: How Educators Use Technology to Improve Student Learning", Journal of Research on Technology in Education, Vol. 48, No. 3, pp. 194-211, Jul. 2016.
6. S. Kavanagh, A. Luxton-Reilly, B. Wuensche, and B. Plimmer, "A Systematic Review of Virtual Reality in Education", Themes in Science and Technology Education, Vol. 10, No. 2, pp. 85-119, 2017.
7. R. T. Azuma, "A Survey of Augmented Reality", Presence: Teleoperators and Virtual Environments, Vol. 6, No. 4, pp. 355-385, Aug. 1997.
8. P. Milgram and F. Kishino, "A Taxonomy of Mixed Reality Visual Displays", IEICE Transactions on Information Systems, Vol. E77-D, No. 12, pp. 1321–1329, Dec. 1994.
9. I. E. Sutherland, "A head-mounted three dimensional display", Proc. December 9-11, 1968, fall joint computer conference, San Francisco, California, part I, pp. 757-764. Sep. 1968.
10. S. Aukstakalnis, "What is Augmented Reality?", In Practical Augmented Reality: A Guide to the Technologies, Applications, and Human Factors for AR and VR, Addison-Wesley Professional, pp. 2-7, Sep. 2016.
11. J. Carmigniani and B. Furht, "Augmented Reality: An Overview", in Handbook of Augmented Reality, Springer, New York, NY, pp. 3–46, Jul. 2011.
12. B. Thiede, G. Posselt, S. Kauffeld, and C. Herrmann, "Enhancing Learning Experience in Physical Action-orientated Learning Factories Using a Virtually Extended Environment and Serious Gaming Approaches", Procedia Manufacturing, Vol. 9, pp. 238-244, Jan. 2017.
13. O. Bimber and R. Raskar, "Augmented Reality Displays", In Spatial Augmented Reality: Merging Real and Virtual Worlds, CRC Press, pp. 85-106, Feb. 2005.
14. K. Ito, M. Tada, H. Ujike, and K. Hyodo, "Effects of the Weight and Balance of Head-Mounted Displays on Physical Load", Applied Sciences, Vol. 11, No. 15, 6802, Jan. 2021.
15. H. B. L. Duh, J. W. Lin, R. V. Kenyon, D. E. Parker, and T. A. Furness, "Effects of field of view on balance in an immersive environment", in Proceedings IEEE Virtual Reality 2001, Yokohama, Japan, pp. 235-240, Mar. 2001.
16. G. A. Koulieris, K. Akşit, M. Stengel, R. K. Mantiuk, K. Mania, and C. Richardt, "Near-Eye Display and Tracking Technologies for Virtual and Augmented Reality", Computer Graphics Forum, Vol. 38, No. 2, pp. 493-519, Jun. 2019.
17. J. P. Stauffert, F. Niebling, and M. E. Latoschik, "Latency and Cybersickness: Impact, Causes, and Measures. A Review", Frontiers in Virtual Reality, Vol. 1, Nov. 2020.
18. LEEP VR, http://www.leepvr.com. [accessed: Jun. 25, 2022]
19. G. Tan et al., "Foveated imaging for near-eye displays", Optics Express, Vol. 26, No. 19, pp. 25076-25085, Sep. 2018.
20. U. Yang, N. G. Kim, and K.-H. Kim, "Augmented System for Immersive 3D Expansion and Interaction", ETRI Journal, Vol. 38, No. 1, pp. 149-158, 2016.
21. B. C. Kress and W. J. Cummings, "11-1: Invited Paper: Towards the Ultimate Mixed Reality Experience: HoloLens Display Architecture Choices", SID Symposium Digest of Technical Papers, Vol. 48, No. 1, pp. 127-131, Jun. 2017.
22. J. J. Jerald, "Scene-motion- and latency-perception thresholds for head-mounted displays", Ph.D., The University of North Carolina at Chapel Hill, 2010.
23. F. Zhou, H. B. L. Duh, and M. Billinghurst, "Trends in augmented reality tracking, interaction and display: A review of ten years of ISMAR", Proc. 2008 7th IEEE/ACM International Symposium on Mixed and Augmented Reality, Cambridge, pp. 193-202, Sep. 2008.
24. G. Welch and E. Foxlin, "Motion tracking: no silver bullet, but a respectable arsenal", IEEE Computer Graphics and Applications, Vol. 22, No. 6, pp. 24-38, Nov. 2002.
25. S. Arya, "New Technologies and Applications of Motion Tracking in Virtual Reality Systems", International Journal of Advanced Research in Computer Science, Vol. 11, pp. 38-44, Oct. 2020.
26. M. Billinghurst, A. Clark, and G. Lee, "A Survey of Augmented Reality", Foundations and Trends in Human--Computer Interaction, Vol. 8, No. 2-3, pp. 73-272, Mar. 2015.
27. V. Teichrieb, M. Lima, E. Lourenc, M. Bueno, J. Kelner, and I. Santos, "A Survey of Online Monocular Markerless Augmented Reality", International Journal of Modeling and Simulation for the Petroleum Industry, Vol. 1, pp. 1-7, Jan. 2007.
28. Y. Chen, Q. Wang, H. Chen, X. Song, H. Tang, and M. Tian, "An overview of augmented reality technology", Journal of Physics: Conference Series, Vol. 1237, No.. 2, pp. 022082, Jun. 2019.
29. B. A. D. Marques, E. W. G. Clua, and C. N. Vasconcelos, "Deep spherical harmonics light probe estimator for mixed reality games", Computers & Graphics, Vol. 76, pp. 96–106, Nov. 2018.
30. M. Mikhailenko, N. Maksimenko, and M. Kurushkin, "Eye-Tracking in Immersive Virtual Reality for Education: A Review of the Current Progress and Applications", Frontiers in Education, Vol. 7, Mar. 2022.
31. Y. Li, J. Huang, F. Tian, H.-A. Wang, and G.-Z. Dai, "Gesture interaction in virtual reality", Virtual Reality & Intelligent Hardware, Vol. 1, No. 1, pp. 84–112, Feb. 2019.
32. S. Mitra and T. Acharya, "Gesture Recognition: A Survey", IEEE Transactions on Systems, Man, and Cybernetics, Part C (Applications and Reviews), Vol. 37, No. 3, pp. 311-324, May 2007.
33. P. Temoche, E. Ramirez, and O. Rodríguez, "A Low-cost Data Glove for Virtual Reality", Proceedings of XI International Congress of Numerical Methods in Engineering and Applied Sciences, pp. 31-36, May 2012.
34. M. Hamidia, N. Zenati, H. Belghit, K. Guetiteni, and N. Achour, "Voice interaction using Gaussian Mixture Models for Augmented Reality applications", proc. 4th International Conference on Electrical Engineering (ICEE), Boumerdes, Algeria, Dec. 2015.
35. L. Paletta, A. Dini, and M. Pszeida, "Emotion Measurement from Attention Analysis on Imagery in Virtual Reality", Advances in Affective and Pleasurable Design, Vol. 952, pp. 13-20, Jun. 2019.
36. H. Deubel and W. X. Schneider, "Saccade target selection and object recognition: Evidence for a common attentional mechanism", Vision Research, Vol. 36, No. 12, pp. 1827-1837, Jun. 1996.
37. X. Wang, "Augmented Reality in Architecture and Design: Potentials and Challenges for Application", International Journal of Architectural Computing, Vol. 7, No. 2, pp. 309-326, Jun. 2009.
38. J. Carmigniani, B. Furht, M. Anisetti, P. Ceravolo, E. Damiani, and M. Ivkovic, "Augmented reality technologies, systems and applications", Multimedia Tools and Applications, Vol. 51, No. 1, pp. 341-377, Jan. 2011.
39. D. Kim, S. Min, and Y.-H. Kim, "Cost Education Effectiveness Analysis of Immersion-type and Simulator-type Virtual Reality Training Systems -Focusing on The ROK Army Virtual Reality Training System-", Journal of Korea Academia-Industrial cooperation Society, Vol. 22, No. 4, pp. 345-352, 2021.
40. U.S. Army to use HoloLens technology in high-tech headsets for soldiers, https://news.microsoft.com/transform/u-s-army-to-use-hololens-technology-in-high-tech-headsets-for-soldiers/. [accessed: Jul. 05, 2022]
41. J. Hogue, R. Allen, J. MacDonald, S. Markham, and A. Harmsen, "Virtual reality parachute simulation for training and mission rehearsal", proc. 16th AIAA Aerodynamic Decelerator Systems Technology Conference and Seminar, Boston, MA, pp. 2061, May 2001.
42. S. Choi, Y. Min, S.-I. Kim, and J. Ghoi, "A Study on Establishment of Safety Training Center Based on Virtual Reality and Augmented Reality Technology for Military Safety and Suicide Accident Prevention", Journal of Internet Computing and Services, Vol. 21, No. 2, pp. 139-148, Apr. 2020.
43. B. Xie et al., "A Review on Virtual Reality Skill Training Applications", Front. Virtual Real., Vol. 2, pp. 645153, Apr. 2021.
44. K. A. Pettijohn, C. Peltier, J. R. Lukos, J. N. Norris, and A. T. Biggs, "Virtual and augmented reality in a simulated naval engagement: Preliminary comparisons of simulator sickness and human performance", Applied Ergonomics, Vol. 89, pp. 103200, Nov. 2020.
45. D. Kim, S. Min, and Y. Kim, "A Study of Effectiveness on Military Training of Army Anti-aircraft Weapon using Virtual Reality", The Journal of the Korea Contents Association, Vol. 21, No. 5, pp. 499–507, 2021.
46. X. Liu, J. Zhang, G. Hou, and Z. Wang, "Virtual Reality and Its Application in Military", IOP Conf. Series: Earth Environ. Sci., Vol. 170, pp. 032155, Jul. 2018.
47. S. G. Izard, J. A. Juanes, F. J. García Peñalvo, J. M. G. Estella, M. J. S. Ledesma, and P. Ruisoto, "Virtual Reality as an Educational and Training Tool for Medicine", Journal of Medical Systems, Vol. 42, No. 3, pp. 50, Feb. 2018.
48. J. R. Dunne and C. L. McDonald, "Pulse!!: A Model for Research and Development of Virtual-Reality Learning in Military Medical Education and Training", Military Medicine, Vol. 175, No. suppl_7, pp. 25-27, Jul. 2010.
49. G. R. Postal, W. Pavan, and R. Rieder, "A Virtual Environment for Drone Pilot Training Using VR Devices", proc. 2016 XVIII Symposium on Virtual and Augmented Reality (SVR), Gramado, Brazil, pp. 183-187, Jun. 2016.
50. W. Wang, S. Lei, H. Liu, T. Li, J. Qu, and A. Qiu, "Augmented Reality in Maintenance Training for Military Equipment", Journal of Physics: Conference Series, Vol. 1626, No. 1, pp. 012184, Oct. 2020.
51. P. W. Caro, "Aircraft Simulators and Pilot Training", Human Factors, Vol. 15, No. 6, pp. 502-509, Dec. 1973.
52. VRㆍSmart Watch, "Advanced submarine force", https://kookbang.dema.mil.kr/newsWeb/20200106/2/BBSMSTR_000000010024/view.do. [accessed: Jul. 10, 2022]
53. M. S. Lvov and H. V. Popova, "Simulation technologies of virtual reality usage in the training of future ship navigators", Educational Dimension, Issue. 1, pp. 159-180, Dec. 2019.
54. H. Wu, J. Yang, C. Chen, Y. Wan, and X. Zhu, "Research of Virtual Ship Fire-fighting Training System Based on Virtual Reality Technique", IOP Conf. Ser.: Mater. Sci. Eng., Vol. 677, No. 4, pp. 042100, Dec. 2019.
55. E. Choi, J.-Y. Kim, S.-H. Shin, and S.-Y. Kim, "A study on the analysis effectiveness of the virtual welding simulator for welding manpower development", Journal of Welding and Joining, Vol. 33, No. 3, pp. 40–46, Jun. 2015.

저자소개
노 정 환 (Junghwan Ro)

2016년 3월 : 오카야마대학 기계시스템공학과(공학사)

2018년 3월 : 도쿄대학 기계공학과(공학석사)

2021년 4월 ~ 현재 : 해군사관학교 기계시스템공학과 교수

관심분야 : 로보틱스, 컴퓨터 비전, 인간-컴퓨터 상호작용

홍 창 우 (Chang Woo Hong)

2006년 3월 : 해군사관학교 문학사, 군사학사

2016년 9월 : 연세대학교 기계공학과(공학석사)

2021년 9월 : 연세대학교 전기전자공학과(공학박사)

2021년 12월 ~ 현재 : 해군사관학교 기계시스템공학과 교수

관심분야 : 인공지능/Bigdata, 건전성예측관리, 전기추진선박