Korean Institute of Information Technology

Home

The Journal of Korean Institute of Information Technology - Vol. 21 , No. 1

[ Article ]
The Journal of Korean Institute of Information Technology - Vol. 21, No. 1, pp. 91-100
Abbreviation: Journal of KIIT
ISSN: 1598-8619 (Print) 2093-7571 (Online)
Print publication date 31 Jan 2023
Received 07 Dec 2022 Revised 30 Dec 2022 Accepted 02 Jan 2023
DOI: https://doi.org/10.14801/jkiit.2023.21.1.91

실내 아동 안전을 위한 딥러닝 기반의 아동 행동 분석기술 개발
안시현* ; 문병인**
*㈜우경정보기술 AI/DX융합개발부문 이사
**경북대학교 전자공학부/대학원 전자전기공학부 교수(교신저자)

A Development of Deep Learning-based Analysis of Behavior for Child Safety Indoors
Shi-Hyun Ahn* ; Byungin Moon**
Correspondence to : Byungin Moon School of Electronics Engineering, Graduate School of Electronic and Electrical Engineering Kyungpook National University, 80 Daehakro, Bukgu, Daegu 41566, Korea Tel.: +82-53-950-7580, Email: bihmoon@knu.ac.kr

Funding Information ▼

초록

아동 관련 실내외 안전사고 발생이 꾸준히 증가하고 있다. 특히 교육 시설, 여가문화 및 놀이시설에서 어린이의 안전사고가 빈번하게 발생하고 있다. 오래전부터 다양한 노력이 추진되고 있지만, 사고 발생률은 여전히 줄어들지 않고 있다. 본 논문에서는 아동 행동 분석 인지를 위한 실시간 다중 영상 동시 입력 기술, 재식별(Re-identification) 및 딥러닝 기반 아동 행동 분석기술 등 다양한 유형의 어린이 사고를 예방하는 기술들을 제안한다. 최종적으로 객체 탐지 정확도 평가지표인 mAP(mean Average Precision) 80% 이상 이상행동 인식 정확도를 나타낸다. 이상 행동 분석 및 재식별 기술이 적용된 아동 행동분석 기반 통합서비스 플랫폼 UI/UX를 개발하였다. 향후 어린이 응급상황 알람 시스템(모바일 앱) 개발할 예정이다. 그 결과 어린이집 및 놀이시설 관리자들의 실시간 돌봄 없이 무인으로 아동 사고가 예방 및 최소화될 것으로 기대한다.

Abstract

The number of safety accidents involving children is steadily increasing. In particular, safety accidents at educational facilities and play facilities occur frequently. A lot of efforts have been made for a long time, but the accident rate is still not reduced. In this paper, we propose a system for preventing various children's accidents through multiple image processing, re-identification, and deep learning-based child behavior analysis technology. The accuracy of abnormal behavior recognition was over 80% for mAP. a service platform UI/UX based on child behavior analysis with re-identification technology was developed. we plan to develop a child emergency alarm system(mobile app) in the future. As a result, it will be possible to provide an integrated service that allows daycare center and amusement facility managers to prevent child accidents in advance.


Keywords: behavior analysis, child safety, deep learning, re-identification, multiple image processing

I. 서 론

아동 관련 실내외 안전사고가 끊임없이 발생하고 있다. 아동 교육 시설, 여가문화 및 놀이시설의 안전사고는, “미끄러짐·넘어짐”과 “추락” 그리고 “부딪힘”에 대한 사례가 빈번히 발생한다[1]. 해외 (미국) 1:8(4~5세), (노르웨이) 1:14(3세 이상), (네덜란드) 1:8(4세 미만) 에 비해 국내 - 어린이집 1:15(3~4세), 유치원 1:22(만 3~5세) 어린이집·유치원 교사 1인당 평균 담당 아동 비율이 높은 편이다. 아동의 행동은 개인의 성격 또는 환경에 따라 나타나는 증상 또는 동반되는 질환이 다르게 발생하여 돌발적으로 취하는 행동을 예측하는 것은 어렵다. 특히 성인보다 표현이 서툴고 소통을 어려워하는 발달지연, ADHD 아동의 돌발 행동은 예측하는데 더 큰 어려움을 갖는다. 현재는 교육 기관 담당자가 사고가 발생한 후, 설치된 CCTV를 활용하여 단순히 사고원인만 파악할 수 있다.

본 논문에서 제안한 기술들을 활용한다면 조기에 발견하여 큰 사고로 확대되는 것을 사전에 차단할 수 있다. 인공지능 기술을 활용한 아동 행동 분석기반 소프트웨어에서 가장 중요한 기술은 아동 행동 분석 및 재식별 기술이다. 딥러닝 기반의 행동 분석연구는 산업계·대학·연구소에서 현재까지 꾸준히 진행되고 있다. 윤 영 등은 Intel RealSense 카메라와 딥러닝 기반의 영상 분석기술(Two-Stream CNN)을 활용해서 노인들의 낙상을 인식하였다[2]. J. T. Park 등은 인간 행동을 구분할 수 있는 4가지 특징을 제시하고, 그 특징에 기계학습 알고리즘인 최근접 이웃(KNN, K-Nearest Neighbor)기법을 적용하여 위험 상황 인식 시스템을 구현하였다[3]. H. R. Yoo 등은 정면과 측면의 구애를 받지 않는 OpenPose를 활용하여 성인과 아동을 구분하여 아동이 학대를 당할 때 자세의 특성을 적용하여 아동 학대 판단 모델을 설계 및 구현하였다[4]. H. Y. Kim 등은 대상 감시 영상의 연속 영상 프레임을 행동 인식 성능이 좋은 I3D(Inflated 3D ConvNet) 네트워크로 전송하여 시공간적 특징을 추출하고 경합 영상의 모호한 시작과 끝을 완화하기 위해 다중 인스턴스 학습을 사용하여 모호한 충돌 경계를 인식하는 학습 방법을 통해 싸움(다툼) 행동 인식 방법을 제안하였다[5]. S. Lee 등은 지능형 CCTV 시스템을 위한 보행자 검출과 재식별 기술을 통해 보행자의 통행량이나 이동 경로 분석 및 위험 지역이나 보안 지역에 진입하려는 보행자에게 경고를 주는 기술을[6], WENZHENG QU등은 딥러닝을 활용한 보행자 재식별 모니터링 시스템을 제안하였다[7]. K. Pi 등은 치매 환자의 상태와 관련된 정보를 의료진과 보호자가 실시간으로 전달받을 수 있는 스마트 모니터링 기술을[8], K. Hwang 등은 딥러닝 기반의 얼굴 인식과 손 제스처 인식을 활용하는 원격 제어 시스템을 제안하였다[9].

행동 인식은 전통적으로 짧은 동영상에서 행동을 분류하는데 목적을 두고 있다. 2D ConvNets , 2D ConvNets with LSTMs , 3D ConvNets 은 최신 행동인식 방법들이다. 비디오에서는 행동 분류는 성공적일 수 있으나. 짧은 영상에 대해서는 선천적으로 제한적이다. 만약 긴 영상을 대상으로 한다면, temporal localization은 행동 분류와 함께 필수적이다[10]. 기존 대부분 아동과 노인 행동 분석 시스템은 특정한 한 가지 행동에 대해서만 집중했다면, 본 논문에서는 어린이집에서 주로 발생하는 5가지 이상 행동 모두에 대해서 딥러닝 기반의 영상분석 기술을 활용하여 객체 및 이벤트 검출이 가능하다. 또한 단일 채널 영상분석이 아니라 다중데이터 동시 입력 및 분석기술을 적용하여 아동 행동에 대한 재식별 기술을 연구개발 하였다. 그 결과 다양한 유형의 어린이 사고에 대응할 수 있다.


Ⅱ. 아동 행동 분석 시스템

본 논문에서는 실시간 다중센서 데이터 기반 영상 동시 입력 기술, 재식별(Re-identification) 및 딥러닝 기반 아동 행동 분석기술 등 실내에서 발생하는 다양한 아동 사고를 예방할 수 있는 기술들을 제안 드린다. 이러한 기술들은 맞춤형 아동 케어를 지원하고 다양한 사고를 예방하는 통합서비스 플랫폼에 핵심기술로 사용된다.

그림 1은 본 논문에서 제안하는 이상 행동 분석 시스템의 전체구조를 나타낸다. 첫번째로 아동 심리 행동 패턴에 기반한 아동의 심리 상태 분석 및 외현화 장애 기반의 행동에 대해서 조사 하였고 대표적인 이상 행동 5가지를 정의하였다.


Fig. 1. 
Elements of child behavior analysis

인공지능 기반 객체 검출 및 이벤트(아동 이상 행동) 분석을 위해서는 관련 학습데이터 구축이 필수이다. 실시간 다중센서 데이터 기반 아동 행동 분석용 데이터 추출 및 변환을 위해 아동 재식별 데이터셋 구축과 행동 분석 데이터셋 구축, 학습모델 설계 및 파라미터 설정을 통한 가중치를 도출하였다. 아동의 정서불안에 따라 빈번한 위치이동 확인을 위해 재식별 기술을 이용한 아동 특징점 기반 동일아동 위치추적 기술을 개발하였다. 아동과 관련해 발생하는 주요 '이상행동(Abnormal behavior)'을 분석하여 정상적인 행동을 제외한 5가지 행동들을 규정하여 딥러닝 기술을 적용하여 이벤트 검출을 수행한다. 이상 행동 인식정확도 mAP[11] 80% 이상 정확도를 나타낸다. 웹 접근성 및 웹 호환성이 적용된 UI/UX 사용자인터페이스 연구개발을 통해 최종적으로 실제 어린이집 및 놀이시설 관리자들에게 사용자 맞춤형 어린이 이상행동 분석 서비스를 제공할 수 있을 것이다.


Ⅲ. 다중 센서 데이터 동시 입력 및 분석

다중센서 환경에서의 실시간 데이터 수신은 Nvidia deepstream 파이프라인 아키텍처를 적용하였다. 전처리부는 Gst-nvstreammux 플러그인을 통해 여러 입력 소스에서 프레임 배치를 형성하고 batch-size는 gst 객체 속성을 사용하여 지정되며 muxer는 배치 크기 프레임의 배치 버퍼를 생성한다. muxer의 출력 형식과 입력 형식이 동일한 경우 muxer는 해당 소스의 프레임을 muxer의 출력 일괄 처리 버퍼의 일부로 전달한다. muxer가 출력 버퍼를 다시 가져올 때 프레임이 소스로 반환되는데 만약 소스의 해상도가 동일하지 않으면 muxer는 프레임을 입력에서 일괄 처리된 버퍼로 확장한 다음 입력 버퍼를 업스트림 구성요소로 반환한다. 배치가 정해진 수량에 도달하거나 배치 생성 제한시간을 초과한다면 muxer가 배치를 다운스트림으로 전달한다. 새 배치에 대한 첫 번째 버퍼가 생성되면 muxer는 라운드 로빈 알고리즘을 사용하여 소스에서 프레임을 수집 및 각 소스에서 배치당 평균 (배치 크기/소스 개수) 프레임을 양을 파악한다. muxer를 사용해 사전에 지정한 소스의 너비 및 높이로 변경함으로써, 배치의 모든 프레임을 동일 해상도를 갖도록 구성하였다. GPU 아키텍처인 Ada의 고속 하드웨어 코덱을 활용하여 최대 3배 압축을 확보하여 8k60FPS까지 지원 가능하다.

영상 분석부는 객체를 탐지하고 추적하는 기능을 수행한다. 객체 탐지 및 분석 플러그인, 객체트래킹 플러그인 및 탐지된 객체의 ID와 바운딩 박스 표현 플러그인으로 구성한다. 먼저 객체 탐지 및 분석 플러그인은 분석 시 사용할 모델과 방법 정의하고 primary-gie를 통해 객체를 탐지한다.

영상출력부는 영상 소스 분석결과를 시각적인 결과물로 출력하는 기능을 수행한다. 출력화면 플러그인은 한 화면에 출력할 비디오 크기, 해상도 및 배치 정의하고 rows 및 columns를 통해 한 화면에 비디오를 가로, 세로 배치 개수를 결정한다. 출력방식은 sink 키워드를 통해서 정의한다. 영상 출력방식을 결정하고 결과 영상을 RTSP 스트밍으로 표출한다.

그림 2는 다양한 멀티채널 데이터 스트리밍 결과이다. 실시간 다중센서 데이터 영상 소스를 동시 입력 및 분석(객체 인식)을 위해 동시 입력 20개가 입력되고 동시 최대 8명 인식되는 영상분석 기능을 구현하였다. 그림 3은 실증 어린이집에서 수행한 멀티채널 수신데이터 영상분석 결과이다.


Fig. 2. 
Multi-channel data(streaming)


Fig. 3. 
Analysis results of images


Ⅳ. 동일 아동 재식별 기술개발
4.1 데이터 셋 구축

아동 재식별 데이터셋은 그림 4와 같이 7가지 단계를 통해 구축되었다. 먼저 재식별 영상을 수집 후 동영상에서 이미지를 샘플링 한다. 샘플링된 이미지에서 객체를 찾고 동영상의 영상 및 촬영정보를 추출한다. 객체 부분만 남기고 배경 이미지를 잘라낸다.


Fig. 4. 
Process of building re-identification dataset

객체 이미지를 확인하여 이미지 속 객체를 식별한다. 앞서 추출한 영상 및 촬영정보와 식별된 정보를 합쳐 라벨링 정보를 얻는다. 이 과정을 모든 영상에 대해 반복 수행하여 데이터셋을 구축하였다. 구축된 데이터는 인공지능 재식별 모델 학습 및 테스트를 위해 그림 5와 같이 Train, Query, Gallery로 분류하였으며 각 데이터셋 비율을 1:1:1로 구축하였다.


Fig. 5. 
Building re-identification datasets

따라서 재식별 데이터셋은 학습에 409장, 테스트에 766장으로 구성된다. 인공지능 재식별 모델 학습을 위해 Train에는 41명의 인원으로 구성되며 이미지는 409장으로 이루어졌다. 인공지능 재식별 모델의 성능 확인을 위해 Test에는 59명의 인원으로 구성된다. 테스트 이미지인 갤러리에는 556장으로 이루어져 있으며 테스트 질의 이미지인 Query에는 210장이 사용된다.

4.2 이동 특징점 기반 재식별 기술개발

M. Han 등은 다수의 보행자가 움직이는 상황에서 보행자의 특징 정보를 획득하여 다수의 보행자들을 검출하는 방법을 제시하였다[12]. 재식별을 위한 딥러닝 아키텍처는 그림 6과 같다. ImageNet pre-trained ResNet50의 Fully Connected Layer의 차원을 자체 데이터셋의 identity 개수로 변경 후 P개의 identity와 각 identity마다 K개의 이미지를 무작위로 추출하여 Batch를 구성하였다. 입력 이미지의 크기를 256x128 pixel로 변형하고 각각의 이미지는 50%의 확률로 가로로 수정하였다. 각각의 이미지는 32-bit floating point로 decode 하였고, 각 pixel 값은 0~1 사이의 값으로, RGB 채널에 대해 ImageNet의 평균과 분산을 사용하여 정규화되고 난 후 딥러닝 모델은 ReID 특징인 f와 ID Prediction logits p를 출력되고 ReID 특징 f로 Triplet Loss를 계산하고, ID Prediction logits p로 Cross Entropy Loss를 계산된다. Optimizer는 Adam으로 설정하였다.


Fig. 6. 
Deep learning architecture for re-identification

재식별 특징점을 활용한 Ranking 도출 과정은 그림 7과 같다. ID Loss는 Model 학습에서 feature가 존재하는 hyper space에서 embedding feature를 subspace로 나누는 hyper plane을 만든다. ID Loss는 embedding feature들 간의 거리에 상관없이 같은 ID는 같은 space에 속하게 하는 평면을 생성한다.


Fig. 7. 
Extraction of feature vector

따라서 ID loss를 계산할 때는 Cosine 거리를 사용하여 계산한다. Triplet Loss는 Model 학습에서 같은 ID를 갖는 feature들은 가깝게, 다른 id를 갖는 Feature들은 멀게 군집을 이루게 하는 역할이다. Feature들 사이 직접적인 거리(distance)계산이 필요하므로, 유클리디안 거리 계산법으로 feature들 사이 거리를 계산한다. feature 간 거리에 따라 rank를 부여한다. 마지막으로 동일아동 식별 과정은 다음과 같다. 입력 이미지로부터 특징 벡터를 추출한 후 query에서 추출된 특징 벡터와 gallery의 특징 벡터의 유사도를 비교하여 동일아동을 그림 8과 같이 추적 성공하였다.


Fig. 8. 
Result of re-identification


Ⅴ. 이상행동 분석
5.1 데이터 셋 구축

A. Arnab 등은 쉽게 주석을 달 수 있는 비디오 레벨 레이블만으로 훈련된 시공간 행동 인식 모델을 제시하였다[13]. 아동의 행동 및 학습활동에 대한 이상행동 인식을 위한 데이터셋을 그림 9처럼 구축하였다. 표 1에서와 같이 총 5가지 이상 행동 동작에 대해 1121개의 영상 데이터를 수집 하였다. 데이터셋 설계할 때 아동 교육 시설과 여가문화 및 놀이시설에서 주로 발생하는 안전사고를 참고하였다. 이외에도 아동과 관련해 발생하는 주요 '이상행동(Abnormal behavior)'을 분석하여 정상적인 행동을 제외한 5가지 행동들을 이상행동으로 정의하였다.


Fig. 9. 
Datasets for abnormal behavior

Table 1. 
Data organization
No. Action Learning data Validation data
Number of image Time Number of image Time
1 Fall 152 0:04:25 17 0:00:30
2 Lie down 175 0:07:03 19 0:00:38
3 Hit 108 0:05:11 12 0:00:25
4 Throw 100 0:03:26 11 0:00:22
5 Swing 295 0:09:58 32 0:01:03
Total 1013 0:35:20 1121 0:38:54

5.2 아동 행동 패턴 분석 소프트웨어 개발

M. Hasan 등은 여러 소스를 사용하여 규칙적인 동작 패턴에 대한 생성 모델을 학습하고 자동 인코더 기반으로 동작하는 방법에 대해서 제안하였다[14]. W. Liu 등은 이상탐지에서 예측된 프레임과 기준 데이터의 차이를 활용하여 비정상적인 이벤트 탐지하는 방법을 제안하였다[15]. W. Luo 등은 순환 신경망(sRNN)을 활용하여 재구성 계수를 유추하여 이상행동 탐지 시 계산 시간이 줄어드는 방법을 제안하였다[16]. H. Xu 등은 다중객체 상호작용을 이용한 시공간적 행위탐지 연구를 제안하였다[17]. F. Baradel 등은 인간 행동인식에서 의미있는 시공간적 상호작용에 대해 추론하는 방법을 학습할 수 있는 모델을 제안하였다[18].

기존의 행동 분석연구들은 동영상 전체의 프레임을 인식하고 맥락분석을 통해 결과를 도출하였다. 컨볼루션 필터 및 인공신경망을 활용하여 외형과 짧은 시간 동안의 움직임만 입력받아 행동을 분석하게 된다. 따라서 맥락분석보다 이미지 분류에 집중하여 행동을 분류하기 때문에 성능이 낮다는 문제가 있었다. 이에 동영상 샘플링 간격 및 모델에 입력하는 동영상 크기 고정 등 다양한 방법들이 연구되었다. 하지만 샘플링 간격을 줄여 높은 컴퓨팅 자원 요구량과 고정된 크기의 입력으로 인해 맥락분석에 긴 시간이 요구되는 행동에 대해서는 핵심 정보가 삭제될 수 있다는 단점이 발생했다. 이를 해결하기 위해 Temporal Segment Networks는 샘플링 간격을 늘리고 전체 비디오를 고정된 크기로 영상을 분할 하여 분석한 뒤 결과를 합쳐서 영상을 분석을 수행한다. 동영상 샘플링의 경우 연속된 간격이 좁으면 변화량이 적음으로 간격을 넓혀 샘플링을 수행했다. 샘플링 범위를 넓히게 되면서 기존에 비해 계산양이 줄어든다. 또한 동영상 전체를 분석하기 위해 비디오를 균일한 크기로 분할 하여 사용하였다. 분할된 비디오들은 추가적으로 짧은 영상으로 랜덤하게 샘플링된다. 이렇게 얻어진 영상들을 동일한 인공신경망에 넣어 모든 클래스에 대한 추론점수를 도출한다. 그리고 각각의 영상들에 대한 추론점수를 합쳐 제일 높은 점수를 얻은 하나의 클래스를 선택하게 된다. 이러한 방식을 통해 그림 9와 같이 비디오를 전체적으로 보고 판단할 수 있게 된다. 아동 이상 행동 패턴 인식 소프트웨어의 이상 행동 인식 정확도를 측정한다. 이상 행동 데이터셋의 영상 중 희소클래스 4개를 제외한 5개 클래스에 대해 정확도를 계산한다.

학습과 테스트 비율을 9:1로 나누어 표 1과 개수는 같으며 실험이 진행되었다. 그림 10은 넘어진 이상 행동을 인식한 결과이다.


Fig. 10. 
Abnormal behavior recognition

표 2에서는 5가지 이상 행동들의 개별적인 인식 정확도를 나타내고 있다. 모두 80% 이상의 정확도(Mean average precision)를 표출하였다.

Table 2. 
Abnormal event detection results
No. Action Validation data Detection results
Number of image Time Mean average
precision
1 Fall 17 0:00:30 0.8
2 Lie down 19 0:00:38 0.8
3 Hit 12 0:00:25 0.83
4 Throw 11 0:00:22 0.8
5 Swing 32 0:01:03 0.91
Total 1121 0:38:54 0.828


Ⅵ. 아동 행동분석 통합서비스 플랫폼

아동 행동분석 기반 통합서비스 플랫폼 개발을 위해 사용자 중심 UI/UX 디자인을 도출하였다. 사용자 중심 인터랙션 간소화를 위한 디자인 와이어프레임 프로토타입 적용하였다. 또한 3종 이상의 웹브라우저(IE, Chrome, Safari 등)에 적합한 웹 접근성 UI/UX를 개발하였다. 이상 행동 분석 및 재식별 기술을 적용하였다. 최종테스트 결과, 그림 11과 같이 서비스 플랫폼에서 5가지 이상 행동을 80% 이상의 정확도로 인식하였다.


Fig. 11. 
Service Platform for child behavior analysis


Ⅶ. 결론 및 향후 과제

실내에서 다양한 아동 사고를 예방하기 위한 실시간 다중센서 데이터 기반 영상 동시 입력 기술, 재식별(Re-identification) 및 딥러닝 기반 아동 행동 분석기술 연구개발을 통해 본 논문에서는 다음과 같은 결론을 얻을 수 있었다.

첫째 아동 이상 행동 재식별 기술은 아동 이상 행동 판단 중 중요한 기준이다. 특정 시간 동안 무리에서 이탈하는 행동은 ADHD를 포함한 많은 이상 행동을 하는 아동들의 공통된 특징이다. 본 연구에서는 재식별 기술을 이용하여 동일아동을 추적 성공하는 테스트를 진행하여 mAP 65% 결과를 도출하였다. 향후 학습데이터 셋을 추가확보 및 소프트웨어 성능 개선을 통해 mAP 70% 이상으로 추적 성공률을 높일 예정이다.

둘째 아동 이상 행동 패턴 인식 소프트웨어의 이상 행동 인식정확도 mAP 80% 이상 정확도를 확보하였다. 총 5가지 이상 행동(넘어지다, 눕다, 때리다, 던지다, 휘두르다) 동작에 대해 1121개의 이상 행동 영상데이터 및 재식별용 이미지 409장을 수집하였다. 향후 사립 유치원들과 협력하여 아동의 개인정보가 보호되는 범위에서 10,000건 이상의 데이터를 추가확보 및 강인한 행동 분석알고리즘 추가적용으로 mAP 90% 이상 정확도를 확보할 예정이다.

셋째 현재까지 아동 행동 분석을 위해 재식별 기술 및 아동 행동 분석 소프트웨어 요소기술 연구하였다. 향후 통합서비스 플랫폼 UI/UX, 공통기능 및 모바일 앱 및 알람 시스템 개발할 예정이다. 그 결과 어린이집 및 놀이시설 관리자들이 무인으로 아동 사고를 사전 예방할 수 있는 통합서비스가 가능할 것이다. 이를 통해 큰 안전사고 예방을 통해 사회적 비용감소, 발달지연, ADHD, 정서적 문제행동 등 치료가 필요한 아동을 조기 판별 및 아동별 상이한 발달단계에 따라 맞춤형 교육이 가능할 것으로 판단된다.


Acknowledgments

본 성과물은 산업통상자원부에서 지원하는 2022년도 지식서비스산업기술개발사업(No. 20014682)의 연구 수행으로 인한 결과물임을 밝힙니다


References
1. K. H. Jin, "A Study on the Types of Safety Accidents and Legal Responsibilities of Early Childhood Teachers in Cases of Safety Accidents at Daycare Center", Korean Journal of Safety Culture, No. 14, pp. 199-211, Dec. 2021.
2. Y. Yoon, "Development and Operation of Remote Lone-Senior Monitoring System Based on Heterogeneous IoT Sensors and Deep Learning", Journal of the Korea Convergence Society, Vol. 13, No. 1, pp. 387-398, Jan. 2022.
3. J. T. Park and K. P. Han, "A Dangerous Situation Recognition System Using Human Behavior Analysis", Journal of Korea Multimedia Society, Vol. 24, No. 3, pp. 345-354, Mar. 2021.
4. H. R. Yoo and B. H. Lee, "An OpenPose-based Child Abuse Decision System using Surveillance Video", Journal of the Korea Institute of Information, Vol. 23, No. 3, pp 282-290, Mar. 2019.
5. H. Y. Kim and Y. Song, "Fight Action Recognition Method using AI Deep Learning", Journal of Institute of Control, Robotics and Systems, Vol. 27, No. 7, pp. 482-489, Jul. 2021.
6. S. Lee, "Pedestrian Detection and Re-identification for Intelligent CCTV Systems", The Journal of The Korean Institute of Communication Sciences, Vol. 34, No. 7, pp. 40-47, Jun. 2017.
7. W. Qu, Z. Xu, and B. Luo, "Pedestrian Re-Identification Monitoring System Based on Deep Convolutional Neural Network", IEEE Access, Vol. 8, pp. 86162-86170, Mar. 2020.
8. K. Pi, K. Lee and H. Min "Design of a Smart Safety Enforcement System for Patients with Dementia", The Journal of The Institute of Internet, Broadcasting and Communication(IIBC), Vol. 20, No. 6, pp. 59-64, Dec. 2020.
9. K. Hwang, J.-M. Lee and I. Jung, "Remote Control System using Face and Gesture Recognition based on Deep Learning", The Journal of The Institute of Internet, Broadcasting and Communication(IIBC), Vol. 20, No. 6, pp. 115-121, Dec. 2020.
10. Actor-centric relation network, SPATIO TEMPORAL ACTION DETECTION MODELS, https://mmaction2.readthedocs.io/en/latest/detection_models.html/ [accessed: Mar. 20, 2022]
11. Kukil, Mean Average Precision (mAP) in Object Detection, LearnOpenCV, https://learnopencv.com/ [accessed: Mar. 05, 2022]
12. M. Han and C. Ryu, "Design of Pedestrian Detection Algorithm Using Feature Data in Multiple Pedestrian Tracking Process", Journal of the Korea Institute of Information and Communication Engineering, Vol. 22, No. 4, pp. 641-647, Apr. 2018.
13. A. Arnab, C. Sun, A. Nagrani, and C. Schmid, "Uncertainty-aware weakly supervised action detection from untrimmed videos", ECCV, pp. 751-768, Feb. 2020.
14. M. Hasan, J. Choi, J. Neumann, A. K. Roy-Chowdhury, and L. S. Davis, "Learning temporal regularity in video seꠓquences", In Proce. of CVPR, pp 733–742, Apr. 2016.
15. W. Liu, W. Luo, D. Lian, and S. Gao, "Future Frame Predicꠓtion for Anomaly Detection–A New Baseline", In Proc. of CVPR, pp. 6536-6545, Dec. 2018.
16. W. Luo, W. Liu, and S. Gao, "A Revisit of Sparse Coding Based Anomaly Detection in Stacked RNN Framework", ICCV, pp. 341–349, Dec. 2017.
17. H. Xu, L. Yang, S. Sclaroff, K. Saenko, and T. Darrell, "Spatio-temporal action detection with multi-object interaction", ArXiv, Apr. 2020.
18. F. Baradel, N. Neverova, C. Wolf, J. Mille, and G. Mori, "Object level visual reasoning in videos", ECCV, Sep. 2018.

저자소개
안 시 현 (Shi-Hyun Ahn)

2016년 2월 : 경북대학교: 전자공학부(박사)

2022년 5월 ~ 현재 : (주)우경정보기술 이사

관심분야 : 인공지능, 컴퓨터비전, 임베디드

문 병 인 (Byungin Moon)

1995년 : 연세대학교: 전자공학과(학사)

1997년 : 연세대학교: 전자공학과(석사)

2002년 : 연세대학교: 전기전자공학과(박사)

2002년 ~ 2004년 : 하이닉스반도체 선임연구원

2004년 ~ 2005년 : 연세대학교 연구교수

2005년 ~ 현재 : 경북대학교 전자공학부 교수

관심분야 : SOC, 컴퓨터 구조, 비전 프로세서