Home | JKIIT Archives | About the JKIIT | E-SUBMISSON |
Sorry.
You are not permitted to access the full text of articles.
If you have any questions about permissions,
please contact the Society.
죄송합니다.
회원님은 논문 이용 권한이 없습니다.
권한 관련 문의는 학회로 부탁 드립니다.
[ Article ] | |
The Journal of Korean Institute of Information Technology - Vol. 22, No. 12, pp. 55-64 | |
Abbreviation: Journal of KIIT | |
ISSN: 1598-8619 (Print) 2093-7571 (Online) | |
Print publication date 31 Dec 2024 | |
Received 25 Nov 2024 Revised 16 Dec 2024 Accepted 19 Dec 2024 | |
DOI: https://doi.org/10.14801/jkiit.2024.22.12.55 | |
도심 군중밀집 안전을 위한 인공지능 기반의 영상분석 시스템 개발 | |
안시현*
; 박윤하*
; 문병인**
| |
*㈜스피어AX | |
**경북대학교 전자공학부/대학원 전자전기공학부 교수(교신저자) | |
Development of an AI-based Video Analytics System for Urban Crowd Density Safety | |
ShiHyun Ahn*
; YunHa Park*
; v Moon**
| |
Correspondence to : Byungin Moon School of Electronics Engineering, Graduate School of Electronic and Electrical Engineering, Kyungpook National University, 80 Daehakro, Bukgu, Daegu 41566, Korea Tel.: +82-53-950-7580, Email: bihmoon@knu.ac.kr | |
Funding Information ▼ |
사회재난 관련 안전사고가 꾸준히 발생하고 있다. 2020년 이후 다중밀집 시설, 여가문화 및 놀이시설에서 군중밀집에 따른 안전사고가 빈번하게 발생하고 있다. 오래전부터 다양한 노력들이 추진되고 있지만, 사고 발생률은 여전히 줄어들지 않고 있다. 본 논문에서는 딥러닝 기반 군중 객체 분석기술, 군중 밀집 상황 실시간 대응을 위한 EDGE AI 학습모델 경량화 기술, 군중 이동방향 예측기술, 군중 밀집도 분석기술 등 다양한 유형의 밀집 사고를 예방하는 기술들을 제안한다. 최종적으로 객체 탐지 정확도 80%이상, 군중 객체 추론속도 20fps를 확보하였다. 사용자 편의성을 반영한 통합서비스 지원 S/W플랫폼을 개발하였다. 향후 다양한 군중상황 학습데이터 추가확보 및 강인한 군중 밀집분석 알고리즘 추가 적용으로 객체 탐지 정확도를 90%이상, 객체 추론속도 25fps 이상 확보할 예정이다.
Safety accidents related to social disasters are steadily increasing. Since 2020, it have been occurring frequently in multi-density facilities, leisure, culture, and amusement facilities. Although various efforts have been promoted for a long time, the accident rate is still not decreasing. In this paper, we propose technologies to prevent various types of crowd collapses including deep learning-based object detection and Model Optimization and Lightweight on Edge AI, Group Trajectory Prediction, Crowd Density Estimation. As a result of the experiments, we confirmed that the proposed video Analytics System have the accuracy of object detection more than 80% and a speed of more than 20fps. we developed an integrated service support S/W platform that reflects user convenience. In the future, we plan to secure the accuracy of more than 90% and speed of more than 25fps by securing additional training data of various crowd situations and applying additional robust crowd density analysis algorithms.
Keywords: object detection, crowd density safety, deep learning, EDGE AI, group trajectory prediction |
2020년 이후, 사회재난이 2020년도 25건, 2021년도 23건으로 매년 지속적으로 발생하였다. 유형별로는 다중밀집시설 대형화재가 가장 많이 발생하였다. 할로윈을 즐기기 위해 많은 인파가 서울 용산구 이태원동 해밀톤호텔 골목에 몰렸던 2022년 10월 29일, 현장 통제 또는 안전관리가 전혀 이루어지지 않아 159명이 사망하고 197명의 부상자가 발생하는 대규모 참사가 발생하였다. 2024년 10월 29일 광주광역시 충장상권 르네상스 라온페스타 행사장에서 수많은 인파가 몰렸지만 안전관리계획 수립 없이 진행되어서 인명피해 우려속에 공연이 결국 취소되었다. 결론적으로, 다양한 상황에 실시간으로 오류없이 대처하는 통합서비스의 부재로 피해가 확대되었다. 현재 대부분의 지자체 통합관제센터 서비스들은 범죄 예방차원에서, 사람 객체를 재식별하여 각각의 영상분석 결과를 관제 모니터에 표출 및 알람등의 단순 서비스만 제공한다. 인공지능 기반의 관제서비스를 제공하더라도 오탐지 및 과잉 탐지 등의 문제점이 발생하여 전국 지자체에서는 지능형 관제 솔루션 전반에 대한 신뢰도가 낮아지고 있다.
본 논문에서 제안하는 인공지능 기반의 영상분석 시스템은 실시간 군중 밀집 탐지 (군중 혼잡도 예측, 히트맵(HeatMap) 기반의 군중밀집 주의 영역 집중 관리) 및 군중 이동방향 예측, 통계 자료를 기반으로 체계적인 군중 밀집 지역 관리 등의 종합적인 서비스를 제공한다. 서비스들 간 데이터 연계를 통해 다양한 군중밀집 상황에 대한 사고예측이 가능하다. 인공지능 기술을 활용한 군중 밀집 분석 및 관리용 소프트웨어에서 가장 중요한 기술은 군중 객체검출 및 군중 혼잡도 분석, EDGE AI(Artificial Intelligence)를 위한 학습모델 경량화, 군중 이동방향 예측 기술이다. 군중 밀집 안전을 위한 연구는 산업계·대학·연구소에서 현재까지 꾸준히 진행되고 있다. B.-J. Lee et al.[1]은 다양한 군중 밀집 인식 알고리즘을 조사하고, 조도와 거리 등의 변수에 따른 오차와 정확도를 비교 및 분석하여 정확도 0.71 확보한 P2PNet을 가장 정확한 군중 밀집 인식 알고리즘으로 선정하였다. H.-Y. Lim et al.[2]은 밀집된 인파에서의 보행자 검출에서 보행자간의 가려짐 및 겹침으로 인해 정확도 저하 및 오검출 등 문제를 해결하고자 YOLOv5 모델 기반의 개선 방법을 제안하였다. J.-H. KIm et al.[3]은 기존 CSRNet(Congested Scene Recognition Network)에서 밀도 변화 시 관찰되는 성능 저하 문제를 해결하기 위해 이미지 정보에서 입력을 취하고 이미지에서 추출된 특징을 기반으로 CSRNet(Congested Scene Recognition Network)의 출력을 조정하여 현장 내 사람들의 밀도 변화에 적응하는 군중 카운팅 네트워크를 제안하였다. B. Xu et al.[4]은 군중 밀도 추정을 위해 광범위한 feature sets를 적용하고 계산 효율성과 확장성을 달성하기 위해 트리 구조가 본질적으로 빠르고 확장 가능한 회귀 모델로 Random Forest를 사용하여 군중 탐지 성능을 향상시켰다. W. Liu et al.[5]은 군중 밀도를 정확하게 예측하는 데 필요한 상황별 정보의 규모를 적응적으로 인코딩하여, 원근감 효과가 강한 상황에서 군중 계산 시, 특징의 중요성을 학습하는 종단 간 훈련 가능한 심층 아키텍처를 제안하였다. C. Wang et al.[6]은 보행자 감지를 위해 높은 감지 정확도와 경량 네트워크 모델 사이의 균형을 맞춘 YOLOv7 기반 아키텍처인 GSDCNet을 통해 감지 정확도를 강화하는 동시에 평활화된 확장 컨볼루션을 통합 설계하여 네트워크의 계산 공간을 줄이는 연구를 수행하였다. D. Liang et al.[7]은 대부분의 회귀 기반 방법은 CNN(Convolution Neural Network)을 사용하여 밀도 맵을 회귀시키는데, 이는 밀도 맵이 매우 밀집된 장면에서 인스턴스를 정확하게 찾을 수 없는 문제를 해결하기 위해 군중 위치화 작업을 위한 새로운 FIDT(Focal Inverse Distance Transform) 맵을 제안하였다. Y. Kim et al.[8]은 모델 배포 비용을 줄이고 제한된 컴퓨팅 리소스로 대상 엣지 장치에서 실시간 추론을 가능하게 하기 위해 경량 1D CNN(One-Dimensional Convolution Neural Network) 모델을 제안하였다. D. Lee et al.[9]은 K-평균 군집화 알고리즘 및 딥러닝 기반 군중 집계를 이용한 전염병 확진자 접촉 가능성 여부 판단 모니터링 시스템을 제안하였다.
결론적으로, 기존에는 군중밀집이 아닌 군중 카운팅 분야에 많은 연구들이 진행되었고, 군중밀집 분석 연구들의 대부분은 중앙 집중식 서버방식으로 진행되었다.
본 논문에서는 이태원 군중밀집과 같은 위험상황에 실시간으로 안전을 확보하기 위해서, 제한된 리소스를 활용하는 엣지컴퓨팅에서 딥러닝 기반의 경량화 영상분석 기술을 연구개발하였고, 단순한 군중 카운팅이 아닌 군중객체 밀집도 및 군중 이동방향 예측 이벤트 검출이 가능한 군중 영상분석 시스템을 연구개발하였다. 그 결과 다양한 유형의 군중밀집 사고에 실시간으로 대응할 수 있다.
본 논문에서는 실내외에서 다양한 군중밀집 사고를 예방하기 위한 YOLOv7기반 실시간 군중밀집 탐지 기술, 군중 혼잡도 및 이동방향 예측 기술, 다양한 상황의 통계 자료를 기반으로 체계적인 군중 밀집 지역 관리를 위한 사용자 인터페이스 기술을 제안한다. 이러한 기술들은 다양한 군중 밀집사고를 예방할 수 있는 통합서비스 시스템에 핵심기술로 사용된다. 그림 1은 본 논문에서 제안하는 군중 밀집 분석 시스템의 전체구조를 나타낸다. 정확한 연구개발 목표 수립을 위해 행위자 기반 모델을 통하여 보행자 유동 현상 및 상황통제(우측통행 등)의 변수에 따라 인구과밀현상의 위험도 변화 양상을 분석하였다. 또한 군중흐름에서 개체수 간의 관계를 알아보았고, 군중, 밀도, 흐름 등을 고려하여 군중 속도는 군중 앞이 지배적이라는 사실을 확인하였다. 인공지능 기반 객체 검출 및 이벤트(군중 밀집) 분석을 위해서는 관련 학습데이터 구축이 필수이다. 군중 밀집 분석용 데이터 구축, 학습모델 설계 및 파라미터 설정을 통한 가중치를 도출하였다. 군중 객체검출을 위한 학습데이터 성능테스트를 수행하여 YOLOv7을 최종 학습모델로 선정하였다. EDGE AI 적용을 위한 학습모델 경량화을 진행하였고, 그 결과 군중객체검출률 80% 이상 및 군중객체 추론속도 20FPS 성능을 확보하였다. CCTV(Closed Circuit Television) 위치정보와 거리정보를 활용하여, 현재 화각의 군중들에 대한 이동방향을 예측하였다. 사용자가 설정한 ROI(Region of Interest) 영역에서 감지된 객체 수와 사용자가 설정한 영역의 면적대비 1㎡당 몇 명이 있는지 계산하여 군중 밀집도를 예측하였다. 웹 접근성 및 웹 호환성이 적용된 UI/UX 사용자인터페이스 연구개발을 통해, 실제 지자체 통합관제시설 관리자들에게 다양한 상황에서 사고예측이 가능한 맞춤형 군중 밀집 탐지 분석 서비스를 제공할 수 있을 것이다.
FUDAN-UCC는 “S2FPR : Crowd Counting via Self-Supervised Coarse to Fine Feature Pyramid Ranking”에서 소개된 데이터셋으로 크롤링 된 4,000개의 이미지가 포함되어 있다. ShanghaiTech은 Crowd Counting 목적으로 구축하였다. "Single Image Crowd Counting via Multi Column Convolutional Neural Network"에서 소개된 데이터셋으로 482개의 Part-A 데이터와 716개의 Part-B 데이터의 원본 데이터로 구성되어 있으며, 학습(Train)에 사용한 이미지 데이터는 700개, 검증(Validation)에 사용한 이미지 데이터는 498개이다. GCC(Grand Theft. Auto V (GTA5) Crowd Counting)는 "Learning from Synthetic Data for Crowd Counting in the Wild"에서 소개된 데이터셋으로 학습(Train)에 사용한 이미지 데이터는 9,000개, 검증(Validation)에 사용한 이미지 데이터는 6,212개이다. 그림 2에서는 ShanghaiTech 및 GCC 학습데이터 예시를 나타낸다. 두 학습데이터에 대해서 분리하여 트레이닝 및 검증(Validation) 테스트 진행하였다.
확장성과 효율적인 레이어 집선이 가능하고 실시간 물체 감지에서 빠르고(x축) 더 높은 정확도(y축)로 추론 가능한 YOLOv7 모델을 선정하였다. VGG16을 기반으로, 업샘플링 경로를 도입하여 세분화된 기능 맵을 얻은 다음 두 분기를 활용하여 일련의 포인트 제안과 신뢰도 점수를 동시에 예측하는 P2PNET(Point to Point Network)을 실시간 군중인식 모델로 비교 테스트하였다. P2PNET은 FIDTM(Focal Inverse Distance Transform Maps), Cascaded-MTL(Multi-task Learning), MCNN(Multi-column Convolutional Neural Network), SASNet(Swedish South Asian Studies Network), CSRNet(Cascaded Selective Resolution Network)과 같은 다른 군중 밀집도 인식을 위한 알고리즘과 비교 테스트 결과, 정확도에서 가장 우수한 성능을 나타내었다[1]. 그 결과 Yolov7과 비교 대상으로 선정하였다. 비교 화면상의 인원수가 계속 바뀌기 때문에 다음과 같이 성능테스트에 대한 시험정책을 정한 뒤 테스트 진행하였다. 실제 인원 및 딥러닝 추론 인원의 계수를 위한 Frame 은 300 단위로 설정하여 인원의 계측 및 결과에 오차가 발생하지 않도록 하였다. 실제 인원은 특정 Frame 단위를 정하여 해당 Frame 내에 있는 전체 인원을 담당자가 직접 계수하여 기록함. 딥러닝 추론 인원은 특정 Frame에서 딥러닝 추론 인원을 File 에 기록하여 해당 File 의 인원을 기록하였다. 오검출은 특정 Frame 의 딥러닝 추론 결과 이미지 자체를 저장하여 담당자가 직접 오검출 인원을 계수하여 기록하였고, 정확도는 (딥러닝추론인원 / 실제인원) - (오검출 / 실제인원) 수식으로 계산하였다. 속도의 기준 단위는 FPS(Frames Per Second) 이며 원본에 해당하는 CCTV 혹은 동영상의 FPS(Frames Per Second) 수치와 근접한 값 설정하였다. P2PNET, YOLOv7 각각의 정확도, 오검출률, 평균 FPS테스트 결과는 아래 표 1, 2와 같다. 최종적으로 성능의 우수성을 보인 YOLOv7을 학습모델로 선정하였고, 2가지 테스트 동영상을 통해 객체 탐지 정확도 80% 이상, 군중 객체 추론속도 20fps를 확보하였다.
Frame | object number |
inferring number |
mis detection |
precision (%) |
FPS |
---|---|---|---|---|---|
300 | 166 | 42 | 0 | 25.30 | 12.1 |
600 | 170 | 43 | 0 | 24.12 | 12 |
900 | 190 | 51 | 0 | 26.32 | 11.8 |
1200 | 220 | 52 | 0 | 23.64 | 12.3 |
1500 | 206 | 75 | 0 | 36.41 | 12 |
Frame | object number |
inferring number |
mis detection |
precision (%) |
FPS |
---|---|---|---|---|---|
300 | 78 | 71 | 0 | 91 | 25.17 |
600 | 105 | 95 | 1 | 90 | 30.20 |
900 | 84 | 74 | 1 | 87 | 21.55 |
1200 | 98 | 89 | 1 | 90 | 30.22 |
1500 | 79 | 75 | 1 | 94 | 27.60 |
실시간 도심 군중밀집 안전을 보호하기위해 중앙 집중 서버 타입이 아닌 로컬 위치에서 프로세스를 실행하는 Edge AI H/W 기반으로 군중밀집분석 시스템을 개발하였다. 중앙집중식 서버에 비해 군중 밀집 응급 상황시, 데이터 생성, 의사 결정 및 조치와 같은 테스크가 동일한 하드웨어 내에서 실시간 처리 가능하다. 연구개발에 적용한 EDGE AI 경향화를 위해 최적화가 된 YOLOv7 버전 적용을 통해, 군중 밀집 분석에서 높은 감지 정확도와 경량 네트워크 모델 사이의 균형을 맞추었다.
specification | |
---|---|
CPU | 12-core NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 3MB L2 + 6MB L3 |
GPU | 2048-core NVIDIA Ampere architecture GPU with 64 tensor cores |
Memory | 64GB 256-bit LPDDR5 @ 3200MHz 204.8GB/s |
AI performance | 248 TOPS (INT8) |
군중 분석기반 안전 위험 예측 모델을 개발하기 위해 그림 3과 같은 사전학습(Pre-trained) 모델(YOLOv7-tiny) 구축과 미세조정(Fine tuning) 및 전이학습(Transfer learning)을 통해 정확도를 향상하였다.
대부분의 딥 러닝 프레임워크는 학습에 초점을 맞추고 있다. 실제 실시간 비디오 스트리밍(군중객체 탐지) 서비스에서는 모델의 추론 성능이 중요하다. 이때 TensorRT가 중요한 역할을 하는데, 이것은 딥러닝 모델을 실제 서비스에 적용하기 위해 필요한 속도 향상과 자원 사용량 감소를 달성하기 위해 설계되었기 때문이다. 이러한 경우에 TensorRT를 사용하면 딥러닝 모델의 실행 시간을 크게 줄일 수 있다. 또한, TensorRT를 통해 사용자는 복잡하고 큰 딥러닝 모델들도 효과적으로 최적화하여 배포할 수 있다.
그 과정으로 YOLO 모델의 TensorRT engine 파일을 변환하였다. YOLOv7의 경우 학습용 가중치와 추론용 가중치로 구분되는데, 학습용 가중치로 학습을 시킨 뒤 추론용 가중치로 변환하였다. 그 후, 입력 tensor를 생성하고 모델을 onnx(Open Neural Network Exchange) 형식으로 변환하고 사용자 설정에 따라 동적배치 크기옵션, onnx모델 간소화 등을 적용하였다. 최종적으로 YOLO 모델 정보 NetworkInfo 구조체를 저장하고 YOLO 객체 및 TensorRT 엔진 생성하였다. 그 결과, 경량화 전 결과(표 4 참조) 보다 경량화(사전학습 및 미세조정, TensorRT적용) 후 테스트 결과(표 5 참조)에서 정확도 향상 및 실행시간(FPS)이 대폭 향상됨을 확인하였다.
Frame | object number |
inferring number |
mis detection |
precision (%) |
FPS |
---|---|---|---|---|---|
300 | 166 | 119 | 3 | 82 | 13.7 |
600 | 170 | 122 | 3 | 80 | 16.3 |
900 | 190 | 141 | 2 | 73.16 | 16.5 |
1200 | 220 | 157 | 3 | 80 | 16.1 |
1500 | 206 | 148 | 2 | 80.87 | 16 |
Frame | object number |
inferring number |
mis detection |
precision (%) |
FPS |
---|---|---|---|---|---|
300 | 36 | 37 | 4 | 86 | 29.98 |
600 | 33 | 33 | 3 | 91 | 30.22 |
900 | 33 | 36 | 5 | 76 | 30.00 |
1200 | 36 | 39 | 5 | 83 | 29.93 |
1500 | 40 | 44 | 5 | 87 | 31.67 |
긴급 상황을 탐지하는 것 뿐만 아니라, 상황이 발생한 지역을 기준으로 어느 지점까지 해당 인파가 이동하여 영향을 미칠 것으로 예상되는지를 함께 추정하기 위해 그림 4와같이 군중 이동 방향을 예측하였다. 현재 화각의 군중들에 대해서 학습된 딥러닝 모델 기반의 엔진(TensorRT)을 이용하여 이동 방향을 업데이트하여, 안전사고가 날 수 있는 혼잡도 예측 방법을 고도화한다. 객체 감지 및 추적기를 통해 비디오 스트림에서 객체를 인식하고 이들을 지속적으로 추적한다. 이를 통해 객체의 위치, 크기, 속도 및 방향 정보 실시간 갱신한다. 사용자는 구성 파일을 설정하여 분석을 수행할 영역과 해당 영역에 대한 방향 규칙을 정의한다. 방향 규칙은 객체가 이동하는 방향을 특정 각도 또는 벡터로 지정하여, 특정 방향 조건에 부합하는 객체를 감지할 수 있게 설정한다. 객체들이 사용자가 설정한 분석 영역에 들어가면, 해당 객체의 궤적을 추적한다. 이 궤적은 객체가 영역을 통과하는 동안의 경로 정보를 포함하며, 방향 감지는 객체의 궤적을 기반으로 분석한다. 객체가 이동하는 궤적을 분석하여 현재 이동 방향을 계산한다.
이 계산은 객체의 이전 위치와 현재 위치를 연결하여 궤적의 벡터를 도출하는 방식으로 이루어진다. 도출된 벡터는 사전에 정의된 방향 규칙과 비교한다. 플러그인은 계산된 방향 벡터를 미리 설정된 방향 규칙과 비교하여 객체가 정의된 방향을 따라 이동하는지 확인한다. 만약 궤적이 방향 규칙에 부합하면, 객체가 해당 방향을 따르고 있는 것으로 판단한다.
군중밀집 단계 판단 기준은 가로·세로 각각 1m 크기의 지면, 즉 1㎡(제곱미터) 정도의 땅에 사람이 몇 명 서 있는지에 따라 결정된다. 관심, 주의, 경계, 심각과 같이 단계를 나누고 나눈 단계에 따라 적용할 기업 혹은 기관의 기준에 따라 수정할 수 있다. 일반적인 기준은 다음과 같다. 관심 : 면적 1㎡ 당 3명, 주의 : 면적 1㎡ 당 4명, 경계 : 면적 1㎡ 당 5명, 심각 : 면적 1㎡ 당 6명, 2022년 이태원 참사의 경우 내리막 골목은 길이 45m, 폭 4m 내외로 약 180㎡(55평) 정도의 넓이인데, 여기에 1천명 이상, 최대 1천200명 정도의 인파가 한꺼번에 몰리며 압사 참사로 이어졌다. 산술적으로 볼 때 이는 1㎡ 당 5.6∼6.6명 정도로 매우 위험한 상태였다. 메타데이터를 파싱하고 커스텀 분석 정보를 추출하기위해 NVIDIA의 DeepStream SDK(Software Development Kit)에서 지원하는 analytics_custom_parse_nvdsanalytics_meta_data를 적용하여 사용자가 설정한 ROI 영역에서 감지된 객체 수와 사용자가 설정한 영역(그림 5의 노란색상 사각형 박스)의 면적대비 1㎡당 몇 명이 있는지 계산한 후 군중밀집 단계를 판단한다. 그림 5는 2㎡ 공간에 8명이 존재하여서 주의단계로 판단된다.
추가적으로 영상 내 군중 밀집도 정보를 그림 6과 같이 직관적 Heatmap 형태로 제공하여, 군중 밀집 주의영역에 대해서 집중관리 서비스를 제공한다.
군중 밀집분석 통합서비스 플랫폼은 CCTV 영상(수집 및 관리하는 객체 영상 및 이미지 데이터는 RTSP(Real Time Streaming Protocol)로부터 전달받은 실시간 데이터를 가공하여 DB(database)에 저장)에 대해 사람에 대한 객체를 검출하고 분석하여 설정한 영역 내의 군중 밀집을 감지할 시 알림과 이미지 및 영상을 제공하는 딥러닝 기반 시스템이다. 로그인, CCTV추가, 이벤트 타임라인, 시스템 설정, 통계정보제공 등 Web Application 형태의 GUI(Graphical User Interface)를 제공하기 위해 사용자 중심 UI/UX 디자인을 도출하였다. 객체 영상 및 이미지 데이터에 대한 수집/관리 및 검색 기능을 서비스 형태로 구현하였고, 관제사가 다양한 탐지 영역 설정이 기능하도록 영역 설정 기능을 구현하였다. 2×2 ~ 6×6까지 시스템에서 화면에 맞게 자동 분할하여 군중 밀집 탐지영역 설정할 수 있는 가이드 영역 설정과 사용자가 직접 군중 밀집 탐지영역을 나누어 배치하는 커스텀 기능을 구현하였다. CCTV별, 영역별, 날짜별 이벤트 발생 수를 차트로 확인할 수 있고 조건에 맞는 데이터를 검색한 후 엑셀 파일로 내려받을 수 있는 통계기능을 그림 7과 같이 구현하였다.
제공된 영상 기반 군중 밀집 상황에 대한 체계적인 분석을 위해 타임라인 기능을 구현하였다. 이벤트 발생 최신시간 기준으로 상단 정렬이 가능하고, 이벤트 발생 CCTV, 영역, 발생시간, 캡쳐 된 썸네일 정보를 제공하고, 군중 밀집 이벤트 발생 시 이벤트 발생 전 후 시간을 포함하여 영상을 녹화 및 재생할 수 있는 기능을 구현하였다. 사용자가 정의한 군중 수가 밀집되면 해당 CCTV 붉은색 라인이 점멸되는 자동 알람 기능을 개발하였다. 최종적으로, 그림 8과 같이, CCTV 영상을 통해 객체의 위치를 실시간으로 모니터링이 가능하며, 실시간으로 설정한 영역에 대한 군중 밀집 알림, 군중 이동 방향, 군중 밀집도 분석 서비스를 제공한다.
실외에서 다양한 군중 밀집사고를 예방하기 위한 딥러닝 기반 군중 객체 검출기술, EDGE AI적용을 위한 학습모델 경량화 기술, 군중 이동방향 예측기술, 군중 밀집도 분석기술 연구개발을 통해 본 논문에서는 다음과 같은 결론을 얻을 수 있었다.
첫째 군중 객체 검출기술은 군중 밀집 판단의 중요한 기준이다. 특정 시간 동안 군중에서 개별 객체각각을 검출하는 것은 군중 밀집 판단에서 아주 중요하다. 본 연구에서는 YOLOv7 기반 학습모델을 통해 다양한 군중 학습데이터를 적용하여 객체 검출 정확도 80% 이상, 군중 객체 추론속도 20fps를 확보하였다. 향후 다양한 화각에서 촬영된 군중 학습데이터셋 추가확보 및 알고리즘 성능 개선을 통해 검출 정확도를 90% 이상으로 높일 예정이다.
둘째 군중이 특정 지점까지 인파가 이동하여 영향을 미칠 것인지를 예상하기 위해 군중 이동방향 예측기술을 연구개발하였다. 현재는 단일영상 중심으로 이동방향을 예측할 수 있다. 다중 군중 분석 기반 혼잡도 예측 기능은 각 CCTV 영역에서 군중들에 대한 관측 영역(ROI)을 지정하고, 이들 군집에 대한 군중 이동 방향을 측정한 후, 인근한 CCTV 들(A영역, B영역, C영역 등)의 군중 이동 방향을 측정해 다양한 형태의 안전사고가 일어날 수 있는 혼잡도를 예측할 수 있다. 추후 다양한 학습데이터 확보 및 학습모델 고도화를 통해 다중 영상기반 군중 이동방향 예측기술을 연구개발 할 예정이다.
셋째 현재까지 군중 밀집 분석을 위해 객체검출, 이동방향 예측, 밀집도 판단기술등을 연구개발하였다. 향후 뎁스카메라의 객체 깊이정보를 군중밀집도 판단에 적용할 계획이다. 통합서비스 플랫폼과 외부 지자체, 경찰서, 소방서관계자들과 실시간 정보공유를 위해서, 모바일 앱 알람 시스템 개발할 예정이다. 또한 다중 드론을 활용해 보다 넓은 군중밀집 지역을 모니터링 할 수 있는 시스템을 연구개발할 예정이다. 최종적으로 다양한 기술과 융합을 통한 기술적 차별화를 통해 군중밀집 재난안전 시장 선점, 시민 생활 안전 위협요소 조기 탐지 및 피해 확산 방지를 통해 인명사고로 인한 국가 경제적 비용 절감효과를 기대해 볼 수 있다.
이 논문은 2024년도 정부(과학기술정보통신부) 및 지자체(대구광역시)의 재원으로 (재)대구디지털혁신진흥원에서 주관하는 지역 디지털 혁신거점 조성지원 사업의 지원을 받아 수행된 연구임(No. DBSD1-01, 도심 군중밀집 안전을 위한 인공지능 기반 스마트 영상분석 기술 고도화 및 상용화)
1. | B.-J. Lee and J.-H. So, "Comparison study of algorithms for crowd density recognition", Proc. of the KIEE Summer Conference, Jeju, Korea, pp. 10-13 Jul. 2024. |
2. | H.-Y. Lim, M. S. An, and D.-S. Kang, "A Study on Pedestrian Detection Method for Crowd Density Analysis", Journal of KIIT, Vol. 22, No. 3, pp. 1-10, Mar. 2024. |
3. | J.-H. Kim, D.-S. Lee, and S.-H. Lee, "Density Change Adaptive Congestive Scene Recognition Network", The International Journal of Advanced Smart Convergence, Vol. 12, No. 4, pp. 147-153, Dec. 2023. |
4. | B. Xu and G. Qiu "Crowd density estimation based on rich features and random projection forest", IEEE Winter Conference on Applications of Computer Vision, Lake Placid, NY, USA, Mar. 2016. |
5. | W. Liu, M. Salzmann, and P. Fua, "Context-Aware Crowd Counting", IEEE Conference on Computer Vision and Pattern Recognition, Long Beach, CA, USA, Jun. 2019. |
6. | C. Wang, P. Cui, J. Jin, and Y. Wang, "An advanced lightweight network with stepwise multiscale fusion in crowded scenes", Signal, Image and Video Processing, Vol. 18, No. 12, pp. 8975-8986, Sep. 2024. |
7. | D. Liang, W. Xu, Y. Zhu, and Y. Zhou, "Focal inverse distance transform maps for crowd localization", arXiv:2102.07925, Feb. 2021. |
8. | Y. Kim, T. Kim, S. Kim, S. Lee, and T. Kim, "Design and Implementation of a Lightweight On-Device AI-Based Real-time Fault Diagnosis System using Continual Learning", Journal of Embedded Systems and Applications, Vol. 19 No. 3, pp. 151-158, Jun. 2024. |
9. | D. Lee, ASHIQUZZAMAN A K M., Y. Kim, H. Shin, and J. Kim, "Proposal of a Monitoring System to Determine the Possibility of Contact with Confirmed Infectious Diseases Using K-means Clustering Algorithm and Deep Learning Based Crowd Counting", Smart Media Journal, Vol. 9, No. 3, pp. 122-129, Sep. 2020. |
10. | J. Kang and J. Gwak, "Embedding similarity-based anomaly detection in crowd scenes via object-centric augmentation", The Journal of KINGComputing, Vol. 17, No. 3, pp. 7-17, 2021. |
11. | Y.-J. Roh and S.-M. Lee, "The Crowd Density Estimation Using Pedestrian Depth Information", Proc. of The Korean inforrmation Processing Society Conference, Busan, Korea, Vol. 30, No. 2, pp. 705-708, Nov. 2023. |
12. | C. Zhang, H. Li, X. Wang, and X. Yang, "Cross-Scene Crowd Counting via Deep Convolutional Neural Networks", IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Boston, MA, pp. 833-841, Jun. 2015. |
13. | B. Li, H. Huang, A. Zhang, and P. Liu, and C. Liu, "Approaches on crowd counting and density estimation: a review", Pattern Analysis and Applications, Vol. 24, pp. 853-874, Feb. 2021. |
14. | P. C. Kusuma and B. Soewito, "Multi-Object Detection Using YOLOv7 Object Detection Algorithm on Mobile Device", Journal of Applied Engineering and Technological Science, Vol. 5, No. 1, pp. 305-320, Dec. 2023. |
15. | D. K. Jain, X. Zhao, G. Gonzalez-Almagro, C. Gan, and K. Kotecha, "Multimodal pedestrian detection using metaheuristics with deep convolutional neural network in crowded scenes", Information Fusion, Vol. 95, pp. 401-414, Jul. 2023. |
16. | S.-J. Wang and P. Yang, "A Review of Terms and Concepts Related to Crowd Crush Incidents in Mass Gathering Situations", Proc. of The Korean Society of Disaster Information Conference, Seoul National University, Korea, pp. 311-313, Nov. 2023. |
17. | M. Choi, J. Park, and S. Ji, "Risk Assessments of Crowds at Bottlenecks through Agent Based Modelling", Journal of the Korean Geographical Society, Vol. 57, No. 6, pp. 595-609, Dec. 2022. |
18. | S.-H Lee, W.-H. Hong, J.-H. Choi, and I.-H. Kim, "Analysis on Crowd Movement Behaviour in a One-way Corridor", Journal of the Architectural Institute of Korea Planning & Design, Vol. 30, No. 12, pp. 255-262, Dec. 2014. |
19. | B. Ganga, B. T. Lata, and K. R. Venugopal, "Object detection and crowd analysis using deep learning techniques: Comprehensive review and future directions", Neuro computing, Vol. 597, pp. 127932, Sep. 2024. |
20. | R. C. C. de M. Santos, M. Coelho, and R. Oliveria, "Real-time Object Detection Performance Analysis Using YOLOv7 on Edge Devices", IEEE Latin America Transactions, Vol. 22, No. 10, pp. 799-805, Oct. 2024. |
2016년 2월 : 경북대학교 전자공학부(박사수료)
2022년 5월 ~ 현재 : (주)스피어AX 이사
관심분야 : 인공지능, 컴퓨터비전, 임베디드
1997년 2월 : 영남대학교 전자공학과 (공학사)
1997년 1월 ~ 2008년 4월 : (주)앤트럭커 본부장
2008년 12월 ~ 현재 : (주)스피어AX 대표이사
관심분야 : BigData, 스마트시티, AI컴퓨터 비전, 딥러닝
1995년 2월 : 연세대학교 전자공학과(학사)
1997년 2월 : 연세대학교 전자공학과(석사)
2002년 2월 : 연세대학교 전기전자공학과(박사)
2002년 2월 ~ 2004년 3월 : 하이닉스반도체 선임연구원
2004년 4월 ~ 2005년 1월 : 연세대학교 연구교수
2005년 2월 ~ 현재 : 경북대학교 전자공학부 교수
관심분야 : SOC, 컴퓨터 구조, 비전 프로세서