Korean Institute of Information Technology

Home

The Journal of Korean Institute of Information Technology - Vol. 20 , No. 12

[ Article ]
The Journal of Korean Institute of Information Technology - Vol. 20, No. 12, pp. 65-73
Abbreviation: Journal of KIIT
ISSN: 1598-8619 (Print) 2093-7571 (Online)
Print publication date 31 Dec 2022
Received 06 Oct 2022 Revised 06 Dec 2022 Accepted 09 Dec 2022
DOI: https://doi.org/10.14801/jkiit.2022.20.12.65

온라인 회의 환경에서 사용자 위치의 동적 관리 방법에 대한 실험 및 평가
박성민* ; 이석훈* ; 정현준* ; 정동원*
*군산대학교 소프트웨어학과
*군산대학교 소프트웨어학과 (교신저자)

Experiment and Evaluation of Dynamic Management for User Position Method in Online Conference Environments
Seongmin Park* ; Sukhoon Lee* ; Hyunjun Jung* ; Dongwon Jeong*
Correspondence to : Hyunjun Jung and Dongwon Jeong Dept. of Software Science & Engineering, Kunsan National University, 558, Deahak-ro, Gunsan, Jeollabuk-do, Korea Tel.: +82-63-469-8911, Email: junghj85@kunsan.ac.kr, djeong@kunsan.ac.kr

Funding Information ▼

초록

이 논문에서는 온라인 회의 환경에서 사용자의 위치를 동적으로 관리하는 방법을 제안한다. 최근 근무 및 회의 형태가 변화하면서 비대면 회의가 증가하고 있으며, 이를 지원하기 위한 많은 시스템 및 서비스가 개발되어 왔다. 기존 온라인 회의 시스템과 카메라는 특정 장소에 다수 인원이 모여 회의에 참석할 경우, 회의 도중 위치가 변한 발언자를 정확히 화면에 송출되지 않는 경우가 발생한다. 이러한 문제점을 해결한 연구가 진행되었으나 사용자의 위치를 정적으로 관리하기 때문에 사용자 위치 변화에 대응하지 못하는 한계를 지닌다. 따라서 이 논문에서는 대화용과 추적용 카메라 두 대를 이용하여 사용자의 동적 위치 변화를 관리할 수 있는 방법을 제안한다. 제안된 방법의 우수성을 확인하기 위하여 실험을 수행하였고, 실험 결과를 보니 사용자가 한 줄로 앉은 형태에서 마스크 미착용시 82%의 정확도를 보였다.

Abstract

In this paper a method is proposed to dynamically manage the positions of users in online conference environments. The frequency of non-face-to-face meetings has increased as the form of work and meetings have changed recently, and many systems and services have been developed to support them. In the existing online conference system and camera, when a large number of people gather in a specific place to attend a meeting, the speaker who has changed the position may not be visible on the screen exactly during a online conference. Several research has been conducted to resolve the problem. However there is a limitation that existing systems cannot respond to position changes of users because user positions are statically managed. Therefore, this paper proposes a method to dynamically manage user positions using two cameras for conversation and tracking. Conducting experiments for confirm the excellence of the proposed method, and the experimental results shows the accuracy of 82% when the user sit in a row and not wearing a mask.


Keywords: user position, dynamic management, dual camera, online conference

Ⅰ. 서 론

정보기술의 발전으로 IT 기술을 접목한 산업구조가 변화하면서 효율성을 극대화한 생산성 향상으로 근무환경도 점차 원격근무로 이루어지고 있다. 최근에는 COVID-19로 인해 비대면 사회로 전환되면서 화상회의 시장의 규모가 대폭 늘어났으며, 앞으로도 시장 규모가 더욱 늘어날 것이다[1].

이러한 변화는 화상회의 시스템에 사용되는 카메라는 물론 화상회의 시스템의 기능 개발을 촉진하고 있다. 이와 더불어, 다대다 또는 일대다 회의나 화상 면접 등 다수 인원이 회의에 참여하는 형태가 증가하고 있다[2]. 그러나 기존 시스템들은 특정 장소에 다수 인원이 모여 회의에 참여하는 경우, 발언자를 명확하게 화면에 송출하지 못하는 한계를 지닌다[3]. 이러한 문제점을 해결하기 위해 제안된 시스템들은 수동으로 사용자를 보이기 위해 직접 장치를 제어해야 하는 불편함과 함께 추가적인 설치 비용이 요구된다[4][5].

앞서 언급한 문제점을 해결하기 위한 연구가 진행되었으며[6][7], 회의에 참석한 사용자 위치를 관리하고 발언자에게 초점을 맞추어 화면에 송출하는 기능을 제공한다. 회의 상황에 따라 사용자의 위치가 고정되지 않고 변화할 수 있다. 따라서 변화할 수 있는 사용자 위치 정보를 동적으로 관리할 필요가 있다. 기존 제안 시스템은 정보를 정적으로 관리한다. 이로인해 실시간으로 변화하는 사용자의 위치를 파악하지 못하며, 잘못된 사용자를 화자로 인식하여 화면에 송출하는 문제점을 지닌다.

따라서 이 논문에서는 정적 사용자 위치 관리 방법을 제안하며, [8]에 대한 확장 및 제안 방법의 장점을 보이기 위한 실험 및 평가를 수행한다. 제안 방법은 두 대의 카메라, 즉 듀얼 카메라를 이용하여 사용자를 동적으로 추적하고 관리한다. 또한 사용자 데이터를 수집하고 다양한 실험 시나리오를 정의한다. 정의한 시나리오에 따라 실험자를 동원하여 실제 실험을 수행하며, 마지막으로 제안 방법의 유효성을 보이기 위해 실험 결과를 토대로 비교 평가를 기술한다.

실험 및 평가를 위해 대화 상대가 원하는 발언자 즉, 화자를 정확하게 인식하여 화면에 송출하는 비율인 인식률(정확성)을 평가 항목으로 정의한다.

본 논문의 구성은 다음과 같다. 제2장은 관련 연구를 소개하고 기존 연구의 문제점과 개선점을 기술한다. 제3장은 본 논문에서 제안하는 시스템과 프로세스 기술하고 시스템에 사용된 얼굴 인식 기술을 설명한다. 제4장에서는 실험 환경 및 방법과 실험 결과를 기술한다. 마지막으로, 제5장에서는 결론을 기술한다.


Ⅱ. 관련 연구
2.1 사용자 위치 관리

화상회의 등 카메라가 필요한 온라인 시스템에서 편리하게 진행하기 위한 사용자의 위치를 관리하는 연구가 진행되어 왔다[6][7].

[6]은 다수 인원이 화상회의를 진행할 때 카메라 화면에 송출되지 않는 상황을 해결하려 한다. 음성인식을 통해 웹캠을 제어하여 인식된 얼굴을 보여주는 시스템을 제안한다. 하지만 사전에 사용자의 위치를 미리 지정한 상태에서의 카메라 제어여서 사용자의 위치를 정적으로 관리하는 한계가 있다.

[7]은 화상회의 시스템에서 사용자 위치를 동적으로 관리하는 방법을 제안하였다. 동적으로 변하는 사용자를 지속적으로 탐지하여 저장 및 갱신함으로써 사용자의 위치를 동적으로 관리한다. 하지만 추적과 동시에 발언자를 화면에 송출할 수 없다.

2.2 사용자 추적

이 논문의 목적은 사용자 위치를 동적으로 관리하기 위한 것으로 사용자를 추적하여 위치에 대한 동적 관리를 지원해야 한다. 따라서 이 절에서는 사용자 추적 연구를 기술한다.

다양한 응용 환경에서, 다양한 사용자 추적에 관한 연구가 진행되어 왔다[9]-[11].

[9]는 영상센서를 사용한 기기에서 얼굴 추적방식을 제안한다. 얼굴 검출을 위해 MB-LBP 특징을 사용했고 얼굴 주변 영역을 지정하여 얼굴 추적한다.

[10]은 얼굴 인식 알고리즘에서의 다중 대상 인식이 낮은 얼굴 추적과 낮은 실시간 성능을 개선하기 위한 다중 대상 얼굴 실시간 감지 추적 및 인식 알고리즘을 설명한다. GOTURN을 기반으로 한 새로운 네트워크를 제공하고 MTCNN으로 얼굴 검출을 한다.

[11]은 비디오와 라이브 스트림에서 사람의 얼굴을 자동으로 추적하고 인식하는 것이 응용 프로그램에서 중요한 구성 요소임을 제시한다. 프레임 대 프레임 단위로 비디오를 처리하여 인간 식별의 정확성에 부정적인 영향을 미치는 것에 대한 해결책을 제공한다. S3FD를 기준으로 LSTM과 결합하여 시간이 지남에 따라 일관되고 부드러운 얼굴 탐지 결과를 생성하고 정확한 얼굴 인식으로 이어진다.

위의 연구들은 정확성을 위해 딥러닝 같은 다른 알고리즘을 사용한다. 하지만 실시간으로 작동하는 시스템에는 처리 속도가 상대적으로 느리다.


Ⅲ. 제안 방안

이 절에서는 제안 방법의 구조도와 전체 프로세스, 사용하는 얼굴 인식 알고리즘과 서비스 측면에서의 활용을 위한 구현 방안에 대해 기술한다.

3.1 시스템 구조도

그림 1은 이 논문에서 제안하는 방법을 구현하기 위한 전체적인 시스템 구조도를 보여준다. 그림에서, 제안하는 시스템은 4개의 모듈로 구분되어 있고 물리적인 구조는 2층 구조로 되어있다. 모듈은 얼굴 인식 모듈, 추적용 카메라 모듈, 대화용 카메라 모듈 그리고 음성인식 모듈로 구성된다.


Fig. 1. 
System architecture

얼굴 인식 모듈은 사용자 이미지 데이터를 가져와서 학습을 시킨다. 그리고 해당 사용자의 가중치 파일을 생성한다.

추적용 카메라 모듈은 모터를 통해 각도를 조절하고 동시에 사용자를 식별한다. 사용자를 식별하면 해당 사용자의 위치 정보를 데이터베이스에 저장하는 역할을 한다.

대화용 카메라 모듈은 음성인식 모듈로부터 받은 이름 데이터와 저장된 사용자의 이름을 비교한다.

데이터베이스에 사용자의 이름이 있는 경우 해당 사용자의 위치 정보를 가져와 부착된 모터를 통해 저장된 위치로 모터를 회전시킨다.

음성인식 모듈은 시스템을 이용하는 사용자들로부터 마이크를 통해 입력을 받는다. 입력받은 음성을 STT(Speech-To-Text)를 이용하여 텍스트 형태의 데이터로 변환하는 역할을 수행한다.

물리적인 구조는 대화용 카메라와 추적용 카메라의 회전하는 시작점과 끝점이 동일해야 하므로 일직선 상에 위치하는 2층 구조로 구상한다.

3.2 실행 프로세스

그림 2는 이 논문에서 제안하는 방법을 구현하기 위한 프로세스를 보여준다. 그림에서, 실행 프로세스는 크게 세 개의 프로세스로 나뉜다. 시스템을 작동하기 전 사용자 이미지를 수집하고 학습하여 가중치 파일을 생성하는 프로세스(Collection and learning process), 시스템을 작동하면서 진행되는 사용자를 추적하는 프로세스(Tracking process) 및 사용자를 화면에 비추는 프로세스(Seeking process)로 구성한다.


Fig. 2. 
Proposed system process

Tracking process는 카메라를 항상 작동하여 가중치 파일에 학습된 사용자들의 얼굴을 식별한다. 식별된 사용자들의 위치 정보를 데이터베이스에 저장한다. 항상 작동하기 때문에 사용자의 위치가 움직여도 사용자를 식별하여 데이터베이스가 계속 갱신된다.

Seeking process는 STT(Speech-To-Text)를 이용하여 음성을 통해 사용자의 이름을 입력받아 텍스트로 변환한다. 변환한 텍스트와 데이터베이스를 비교하여 사용자의 위치 정보가 있는지 확인한다. 확인 후 사용자의 정보가 있는 경우, 그 사용자의 위치 정보를 가져온다. 가져온 위치 정보를 가지고 화면에 사용자를 해당 위치 데이터로 보이게 모터를 제어한다.

3.3 얼굴 인식 모듈

이 논문에서는 사용자 가중치 파일을 만들기 위해 Haar Cascade 기술을 사용하고 얼굴 인식에 Open CV를 사용한다. 제안 시스템은 작동되고 있는 동안 사용자를 식별해야 해서 인식 속도에 초점을 맞춘다. Haar Cascade는 다른 얼굴 검출 및 인식에 적용할 수 있는 다른 기술에 비해 처리시간이 특성상 월등히 빠르다는 특징이 있어 제안 시스템에서 사용한다[12][13]. 또한, 화상회의 또는 원격수업 같은 카메라를 주로 정면으로 응시하는 시스템에서 높은 성능을 보인다[14].

먼저, 사용자의 얼굴 분류를 위해 Haar Cascade Classifier를 학습시킨다. 얼굴 전면부를 검출하는 기학습된 모델을 사용하여 xml 파일을 생성한다. xml 파일을 통해 사용자의 얼굴 사진을 가지고 특징을 추출한다. 특징 추출 연산을 수행한 후에 추출한 특징으로 학습을 수행하여 yml 파일을 생성한다.

시스템이 동작 하는 동안 사용자 얼굴 인식을 위해 Open CV를 사용하여 식별한다. Haar Cascade를 통해 만들어진 yml 파일로 사용자를 식별한다.

3.4 웹 스트리밍

제안 시스템을 서비스 측면에서도 사용을 고려하여 웹 스트리밍을 구상한다. 시스템을 동작시키고 웹에서 쉽게 시스템에 접근하여 활용할 수 있게 한다. 사용자의 위치 정보를 일정한 간격으로 나누어 구역을 지정하여 구역에 있으면 해당 구역표에 이름을 나타낸다.

그림 3은 대화용 카메라의 화면과 현재 사용자들의 위치를 구역별로 확인할 수 있는 웹 스트리밍 화면을 보여준다.


Fig. 3. 
Web streaming screen


Ⅳ. 실험 및 평가
4.1 실험 환경

실험 환경은 표 1과 같다. 시스템 구현은 python을 사용하고, 얼굴 인식 기술의 소프트웨어로는 Open CV와 YOLO를 사용한다. 카메라는 저비용으로 구매할 수 있게 추적용 카메라는 Logitech C270i를 사용하고, 대화용 카메라는 Logitech C170을 사용한다. 제안 시스템에서 추적 시 사용자 인식을 정확하게 하기 위해 비교적 좋은 성능의 카메라를 추적용 모듈에 사용한다. 카메라의 각도 제어를 위한 모터는 SG-90 서보모터를 사용한다. 마이크는 저비용으로 구매할 수 있는 USB 전원 형태의 CM-700USB 모델을 사용한다. 그림 4는 실제 구현한 프로토타입을 보여준다.


Fig. 4. 
Prototype for the proposed method

4.2 데이터 수집

이 논문에서는 각각의 사용자 얼굴 사진을 1,000장씩 수집한다. 현재 상황을 고려하여 500장은 마스크 미착용한 사진이고, 나머지 500장은 마스크를 착용한 사진이다. 사진은 다양한 이미지 수집을 위해 안경을 착용하거나, 머리를 올리거나 모자를 쓰고, 표정을 다양하게 짓는 등 변화를 주어서 수집한다.

수집된 데이터들은 Open CV를 사용하여 레이블 된 영상 데이터를 훈련시켜서 yml 형식의 파일로 저장한다. 제안 시스템은 사용자를 식별할 때 저장된 yml 파일을 바탕으로 작동한다.

그림 5는 학습하기 위해 수집한 사용자 데이터 샘플을 보여준다.


Fig. 5. 
Sample of training data

4.3 실험 방법

기존 연구에서는 사용자의 위치를 동적 관리하지 못해 실험 평가를 진행하지 않았다. 그래서 본 논문에서는 제안 시스템을 정확성에 따라 정량적 평가를 수행한다. 제안 시스템에서 정확성이란 사용자를 화면에 정확히 송출하는 비율을 의미한다. 정확성 평가 요인, 즉 정확성에 영향을 주는 요인은 얼굴 인식과 위치 변화이다. 제안 시스템에서 위치 변화에 중점을 두기 때문에 얼굴 인식은 상수로 두고 실험 및 평가를 수행한다.

위치 변화의 영향 요인은 사용자의 위치 변경과 사용자들의 앉아있는 형태가 있을 수 있다. 또한 실내에서 마스크 착용 의무 사항을 고려하여 사용자의 마스크 착용 여부를 실험 요인에 추가한다. 실험은 마스크를 착용하거나 미착용한 상태에서 사용자가 한 줄로 앉아있을 때와 두 줄로 앉아있을 때의 상황을 고려하여 총 4가지 시나리오를 정의하고 이를 바탕으로 실험을 수행한다. 정확성은 시스템이 한 번 동작하는 동안 10회의 스캔을 하여 사용자를 인식한 횟수에 대한 수치로 평가한다.

정확성에 대한 수치는 사용자의 현재 위치 및 순서에 맞게 인식이 되었으면 참, 다른 사용자로 인식하면 거짓으로 하여 10회 중 참의 개수로 평균을 구한 것이다. 그리고 동적 관리가 되는지 확인하기 위해 10회의 스캔 중 5번째의 스캔 이후에 사용자의 위치를 변경하여 실험한다. 총 10회의 동작을 수행하고 단위 실험의 결과에 대한 정확성의 평균을 통해 최종 정확성을 평가한다.

첫 번째 실험은 마스크를 착용했을 때의 실험으로 사용자들의 위치가 한 줄일 때와 두 줄일 때를 나누어 실험한다. 두 번째 실험은 마스크를 미착용했을 때의 실험으로 첫 번째 실험과 위치는 같다.

그림 6은 사용자들의 위치가 한 줄로 나열된 상황을 보여주며, 그림 7은 사용자들의 위치가 두 줄로 자리한 상황을 보여준다.


Fig. 6. 
Users seated in a row


Fig. 7. 
Users seated in two rows

4.4 실험 결과

표 2는 마스크를 착용하고 사용자가 한 줄로 위치해 있을 때의 실험 결과를 보여준다. 전체적으로 약 70%의 정확성을 보였고, 위치에 변화를 주었을 때도 비슷하게 인식하는 결과를 보였다.

Table 2. 
Experiment results : in one row, with mask
Action Overall
average(%)
Before
movement(%)
After
movement(%)
1 72.5 60 85
2 70 58.6 81.4
3 67.1 62.8 71.4
4 64.3 68.6 60
5 62.9 57.2 68.6
6 61.1 58.6 63.6
7 74.3 64.3 84.3
8 72.9 60 85.8
9 68.6 70 67.1
10 68.6 65.7 71.5

표 3은 마스크를 착용하고 사용자가 두 줄로 위치해 있을 때의 결과이다. 약 50%의 정확성을 보였으며, 한 줄로 위치해 있을 때보다 낮은 정확성을 보였다.

Table 3. 
Experiment results : in two rows, with mask
Action Overall
average(%)
Before
movement(%)
After
movement(%)
1 50 45.7 54.3
2 51.4 51.4 51.4
3 42.9 42.9 42.9
4 47.1 48.6 45.6
5 40 40 40
6 47.1 60 34.2
7 52.9 48.5 57.3
8 50 54.2 45.8
9 45.7 40 51.4
10 42.9 42.9 42.9

표 4는 마스크를 착용하지 않고 사용자가 한 줄로 위치해 있을 때의 결과를 보여준다. 약 82%의 정확성을 보였다. 반면 마스크를 착용하지 않고 사용자가 두 줄로 좌석을 배치했을 경우, 표 5에서와 같이 약 60%의 정확성을 보였다.

Table 4. 
Experiment results: in one row, without mask
Action Overall
average(%)
Before
movement(%)
After
movement(%)
1 80 80 80
2 81.4 85.7 77.1
3 77.1 82.9 71.3
4 84.3 85.7 82.9
5 81.4 85.7 77.1
6 82.9 82.9 82.9
7 85.7 88.6 82.8
8 81.4 88.6 74.2
9 78.6 82.8 74.4
10 87.1 82.9 91.3

Table 5. 
Experiment results: in two rows, without mask
Action Overall
average(%)
Before
movement(%)
After
movement(%)
1 60 57.1 62.8
2 55.7 54.2 57.2
3 58.5 54.3 62.7
4 54.3 54.3 54.3
5 61.4 62.9 59.9
6 58.5 54.3 62.7
7 61.4 57.1 65.7
8 55.7 54.3 56.8
9 64.2 68.6 59.8
10 62.9 62.9 62.9

4.5 평가

이 절에서는 앞서 기술한 실험을 통한 정량 평가 결과와 함께 기존 시스템[6][[7]과의 정성 평가 결과를 기술한다.

실험 결과에서, 마스크를 착용한 상태에서 좌석 배치가 한 줄인 경우가 두 줄로 배치된 경우보다 약 20%p 높은 성능을 보였다. 마스크를 착용하지 않은 상태에서는 약 22%p의 차이를 보였다. 사용자의 좌석 배치가 한 줄로 동일한 경우, 마스크를 미착용한 상태의 정확도가 착용 상태의 정확도에 비해 약 12%p의 높은 성능을 보였다. 또한 사용자의 좌석 배치가 두 줄로 동일한 경우에는 약 10%의 성능 차이를 보였다. 사용자가 두 줄에 위치한 상황이 인식률이 낮게 나오는 이유는 사용자끼리 겹치는 경우가 생겨 한 줄로 있을 때보다 인식의 오류가 발생하기 때문인 것으로 분석되었다.

표 6은 기존 시스템과 제안 시스템에 대한 정성 평가 결과를 보여준다. 기존 시스템은 STT와 사용자 추적 기능을 지원한다. 반면 동적 관리에 필요한 모듈의 동시 동작이 되지 않아 실시간 추적이 불가능하다. 그러나 이 논문에서 제안하는 시스템은 듀얼 카메라로 모듈 동시 동작하고 실시간 추적이 가능하게 하여 사용자 위치를 동적 관리할 수 있는 장점이 있다.

Table 6. 
Qualitative comparison
Systems Proposed system Existing [6] Existing [7]
Items
User tracking Support Support Support
STT Support Support Support
Simultaneous operation Support Not support Not support
Real-time tracking Support Not support Not support


Ⅳ. 결 론

이 논문에서는 듀얼 카메라를 이용하여 사용자 위치를 동적 관리하는 방법을 기술하고, 실험 및 평가를 통해 제안 시스템의 성능을 검증하였다.

실험 및 평가를 위해 시스템 작동 중 사용자를 실시간으로 인식하여 위치를 동적으로 관리하는 기능을 보였다. 제안 시스템에서 마스크 착용 여부와 함께 동적 관리 기능을 평가하기 위한 사용자의 위치 변화를 평가 요인으로 추가하여 동적으로 관리할 수 있는지 평가하였다.

실험 결과에서, 마스크를 착용하지 않았을 때가 높은 성능을 보였고, 마스크 미착용의 동일 상태에서 두 줄로 사용자가 위치한 상황보다는 한 줄로 위치해 있을 때가 82%의 가장 높은 정확성을 보였다. 이를 통해 준수한 성능으로 제안시스템이 회의에서 발언자를 명확하게 화면에 송출하는 것과 동시에 동적으로 위치를 관리하는 것을 보였다.

추후 향후 연구로서, 마스크를 착용한 사용자의 인식률을 개선과 함께 처리시간이 빠른 알고리즘에 대한 연구를 한다면 우수한 성능을 보일것으로 기대한다. 또한, 겹쳐있는 사용자에 대한 인식률 향상에 관한 연구가 요구된다. 마지막으로, 사전에 학습하지 않은 사용자의 관리에 관한 연구가 요구된다.


Acknowledgments

본 연구는 환경부/한국환경산업기술원 지중환경오염위해관리기술개발사업(2022002450002)으로 수행되고 있습니다

이 논문은 2021년도 한국정보기술학회 추계 종합학술대회에서 발표한 논문(듀얼 카메라를 이용한 사용자 위치의 동적 관리 방법)을 확장한 논문임.


References
1. Y. D. Kim, "Video Conferencing System Technology and Market Trends", Korea Institute of Science and Technology Information, KOSEN Report, May 2020.
2. Gurumi, Launches On-Tact ‘Video Interview Service’ Customized for Companies, https://www.itworld.co.kr/news/170424 [accessed: Nov. 03, 2022]
3. How to Efficiently Conduct Non-Face-to-Face Online Video Conferencing, https://zdnet.co.kr/view/?no=20200907130219 [accessed: Oct. 07, 2022]
4. Logitech Meetup, https://www.logitech.com/en-us/products/video-conferencing/conference-cameras/meetup-conferencecam.html [accessed: Oct. 07, 2022]
5. Webex Room Bar, https://hardware.webex.com/products/webex-room-bar
6. D. H. Kim, J. W. Gim, and D. W. Jeong, "Implementation of a Camera Rotation Control System Based on Voice and Face Recognition", Proc. of KIIT Conference, Korea, pp. 361-363, Nov. 2019.
7. S. H. Ma and D. W. Jeong, "Dynamic Management Method of User Locations in Video Conference Systems", Proc. of KIIT Conference, Korea, pp. 366-369, Oct. 2020.
8. S. M. Park, D. H. Gu, S. H. Lee, and D. W. Jeong, "A Method for Dynamic User Position Management Method Using Dual Cameras", Proc. of KIIT Conference, Korea, Jeju, Vol. 16, No. 2, pp. 392-396, Nov, 2021.
9. M. S. Kwak, "Robust Object Tracking System Based on Face Detection", KIPS Transactions on Software and Data Engineering, KTSDE, Vol. 6, No. 1, pp. 9-14, Jan. 2017.
10. Jun Li, Yaoru Wang, GuoKang Fang, and Zhigao Zeng, "Real-Time Detection Tracking and Recognition Algorithm Based on Multi-Target Faces", Multimedia Tools and Applications, Vol. 80, Issue 11, pp. 17223-17238, May 2021.
11. Liu and Yiran, "Consistent and Accurate Face Tracking and Recognition in Videos", Russ College of Engineering and Technology of Ohio University, p. 80, May 2020.
12. C. H. Choi, J. H. Kim, J. K. Hyun, Y. H. Kim, and B. I. Moon, "Face Detection Using Haar Cascade Classifiers Based on Vertical Component Calibration", Human-centric Computing and Information Sciences, Vol. 12, No. 11, Mar. 2022.
13. A. Singh, H. Herunde, and F. Furtado, "Modified Haar-Cascade Model for Face Detection Issues", International Journal of Research in Industrial Engineering, Vol. 9, No. 2, pp. 143-171, May 2020.
14. Christian Herdianto Setjo, Balza Achmad, and Faridah, "Thermal Image Human Detection Using Haar-Cascade Classifier", 2017 7th International Annual Engineering Seminar, InAES, pp. 1-6, Aug. 2017.

저자소개
박 성 민 (Seongmin Park)

2017년 3월 ~ 현재 : 군산대학교 소프트웨어학과 학부과정

관심 분야 : 데이터베이스, 프로그래밍, 사물인터넷

이 석 훈 (Sukhoon Lee)

2009년 2월 : 고려대학교 전자및정보공학부(학사)

2011년 2월 : 고려대학교 컴퓨터·전파통신공학과(공학석사)

2016년 2월 : 고려대학교 컴퓨터·전파통신공학과(공학박사)

2016년 3월 ~ 2017년 3월 : 아주대학교 의료정보학과 연구강사

2017년 4월 ~ 현재 : 군산대학교 소프트웨어학과 교수

관심 분야 : 사물인터넷, 메타데이터, 센서 레지스트리, 시맨틱 웹, 경로 예측

정 현 준 (Hyunjun Jung)

2008년 : 삼육대학교 컴퓨터과학과(학사)

2010년 : 숭실대학교 컴퓨터학과 (공학석사)

2017년 : 고려대학교 컴퓨터·전파통신공학과(공학박사)

2017년 8월 ~ 2020년 8월 : 광주과학기술원 블록체인인터넷경제연구센터 연구원

2021년 ~ 현재 : 군산대학교 소프트웨어학과 교수

관심분야 : 블록체인, 데이터 사이언스, 센서 네트워크, 사물인터넷, 머신러닝

정 동 원 (Dongwon Jeong)

1997년 2월 : 군산대학교 컴퓨터과학과(학사)

1999년 2월 : 충북대학교 전자계산학과(석사)

2004년 2월 : 고려대학교 컴퓨터학과(박사)

2005년 4월 ~ 현재 : 군산대학교 소프트웨어학과 교수

관심분야 : 데이터베이스, 시맨틱 서비스, 빅데이터, 사물인터넷, 엣지컴퓨팅, 지능형 융합 서비스