Korean Institute of Information Technology

Home

The Journal of Korean Institute of Information Technology - Vol. 21 , No. 3

[ Article ]
The Journal of Korean Institute of Information Technology - Vol. 21, No. 3, pp. 39-48
Abbreviation: Journal of KIIT
ISSN: 1598-8619 (Print) 2093-7571 (Online)
Print publication date 31 Mar 2023
Received 14 Feb 2023 Revised 13 Mar 2023 Accepted 16 Mar 2023
DOI: https://doi.org/10.14801/jkiit.2023.21.3.39

관절 데이터 기반 동작 인식 모델 연합학습 프레임워크 연구
방준일* ; 홍성은* ; 전석환* ; 이주원* ; 김화종**
*강원대학교 컴퓨터정보통신공학과
**강원대학교 컴퓨터정보통신공학과 교수(교신저자)

Federated Learning Study using Motion Recognition Model based on Joint Data
Junil Bang* ; Seongeun Hong* ; Sukhwan Jeon* ; Joowon Lee* ; Hwajong Kim**
Correspondence to : Hwajong Kim Dept. of Computer and Communications Engineering, Kangwon National Univ., Gangwondaehak-gil 1, Chuncheon-si, Gangwon-do, Korea Tel.: +82-33-250-6323, Email: hjkim3@gmail..com

Funding Information ▼

초록

이 연구는 요양병원 환자를 병상의 영상장치로 촬영하고, 이 영상으로 동작 인식 모델을 구축하여 요양병원의 많은 환자를 돌보는 간병인에게 도움을 주는 시스템 중 연합학습 구현에 해당한다. 그래프 기반 동작 인식 딥러닝 모델의 연합학습에 비식별화 및 경량화가 된 ETRI-Activity3D 관절 데이터를 활용하였고, 시계열 그래프의 연합학습을 위해 STGCN(Spatio-Temporal Graph Convolutional Networks) 기반 동작 인식 모델을 경량화 등의 모델 수정을 하였다. 연합학습은 오픈 소스인 Flower를 기반으로 구현하였다. 연합학습 클라이언트에서 집계 알고리즘으로 취합한 글로벌 모델이 로컬 소유의 원본 데이터만을 사용한 모델보다 우수한 정확도를 보였다. 동일한 물적 시간적 자원으로 수행한 중앙집중형 모델과 비교하여 약 98%의 성능을 달성하였다.

Abstract

This study corresponds to the implementation of federated learning among the systems that help caregivers taking care of many patients in a nursing hospital by photographing a nursing hospital patient with a bedside imaging device and building a motion recognition model with this image. De-identified and lightweight ETRI-Activity3D joint data was used for federated learning of the graph-based motion recognition deep learning model, and lightweight STGCN(Spatio-Temporal Graph Convolutional Networks) based motion recognition model was used for federated learning of time-series graphs. model was modified. Federated learning was implemented based on the open source Flower. The global model collected by the aggregation algorithm in the federated learning client showed better Accuracy than the model using only locally owned original data. Compared to the centralized model performed with the same physical and temporal resources, about 98% of performance was achieved.


Keywords: federated learning, motion recognition, classification, graph convolution network

Ⅰ. 서 론

공유에 민감한 데이터들을 인공지능 모델 학습에 활용하기 위해 연구된 학습 방법 중, 데이터를 실제 공유하지 않는 방법인 연합학습을 활용한다[1]. 법적 및 정책적으로 데이터를 우회 공유하거나, 고도의 비식별화 및 암호화를 통한 공유 방법만을 활용하는 것이 아닌, 기술적으로 원본 데이터를 공유하지 않는 인공지능 모델 학습이 가능한 방법이다.

개인정보보호법에 의하여 관리되거나 윤리적인 이유로 인해 데이터를 공유하기 힘들거나 할 수 없는 분야에 활용이 가능하다. 의료기관의 데이터는 환자의 개인 정보이므로 환자의 개인 정보 활용 동의와 윤리적 승인 없이는 사용 및 공유가 어렵다는 단점을 지니고 있다[2].

예를 들어, 환자 개인 정보인 CCTV 영상 데이터를 관할기관 외부에 공유하지 않고, 자체적인 학습 후 모델 또는 파라미터의 공유만을 활용하여 개인정보를 유출하지 않고, 또한 개인을 특정하지 않는 이상행동 예측 같은 분야에 활용이 가능하다. 또한, 이러한 민감한 개인 정보를 기관 간에 직접 공유할 필요 없이 수 회에 걸친 반복 학습 과정에서 단일 기관의 모델보다 더 많은 데이터를 학습한 공유 모델을 얻을 수 있다[3]-[5].

행동 인식 및 예측의 경우 딥러닝을 활용해 시간 정보를 반영하여 학습해야하며 DNN(Deep Neural Network), 1D-CNN, RNN, LSTM, CNN-LSTM을 적용하는 연구가 활발히 진행되고 있다[6]-[11].

하지만 본 연구에서는 단순 행동인식이 아닌 그래프 기반의 행동 데이터를 활용한 예측 모델을 활용하였으며, 이미지 및 비디오 데이터를 모델의 직접 입력으로 활용하지 않았다. 실제 요양병원에서 활용할 경우, 수 많은 카메라에서 수집된 데이터를 실시간으로 전부 분석하거나, 일정기간 수집하여 주기적으로 연합학습을 수행하기 위해서는, 학습을 직접적으로 수행하는 클라이언트의 높은 성능이 반드시 강제된다. 따라서, 연합학습의 유효성을 실증하기 위해 학습하는 데이터의 용량을 낮출 필요가 있었으며, 그 방안으로 행동하는 사람의 관절 데이터만 추출하여 분리였다. 해당 관절 데이터만을 활용하여 실시간 분석 및 연합학습을 수행하는 것을 목적으로 해당 연구를 시작하였다.

본 연구는 요양병원의 환자 영상을 직접 촬영하여 관절 데이터를 추출 및 타겟 행동을 레이블링하고, 이를 연합학습하여 환자 행동을 실시간으로 알려주는 전체 프로세스 중 일부를 구현한 연구이다. 대한요양병원협회의 추천을 받아 요양병원 2 곳을 선정하여 실증서비스 진행하였으며, 모바일 디바이스의 데이터를 전송하는, 병원 내에서만 확인 가능한 병원 내 로컬 학습서버 및 데이터 수집 시스템 인프라 구축하고, 간병인 및 가족들에게 환자의 상태를 체크할 수 있는 모바일 앱 까지 구현한 시스템의 일부이다.

다만, 환자의 데이터를 실제 공개할 수는 없어, 본 논문에서는 ETRI-Activity3D의 관절 데이터를 활용하여 검증하였다[12]. 또한, 본 논문에서는 영상촬영 및 관절 데이터 추출부의 검증 및 내용은 제외하였고, 관절 데이터를 활용하는 행동인식 모델을 연합학습에 적용하여 프레임워크를 구현 및 실험하는 내용과, 성능을 검증하는 내용을 작성하였다. 해당 연합학습 시스템을 통해 직접적인 공유 없이 데이터 판단 능력을 높일 수 있는지 검증을 하였으며, 또한 만약 데이터를 직접 공유하였을 때의 성능과 차이를 비교하는 실험을 하였다.


Ⅱ. 관련 연구 및 방법론
2.1 연합학습

연합학습이란 병원, 연구소, 대학, 은행 등 기관(Institute) 또는 핸드폰과 같은 기기(Device)들이 각자 보유한 데이터를 직접 공유하지 않고, 머신러닝 모델의 파라미터만 공유하여 전체적으로 성능이 개선된 글로벌 모델을 만든 후 이를 각 디바이스나 기관에서 활용하는 방식으로 일종의 분산형 기계학습 기법이다. 연합학습을 사용하면 머신러닝 모델 파라미터(가중치)만 공유하여도 마치 원본 데이터를 모두 한곳에 모아 일괄 학습시킨 것과 같은 효과를 낼 수 있으며, 최근 네이처 등의 논문에 연합학습의 성능을 입증하는 논문이 다수 발표되었다[13]-[19].

연합학습은 글로벌 모델 학습을 위해 모델을 취합하는 절차를 수행해야 한다. 글로벌 모델을 한번 학습하는 과정을 round라고 하며, 첫 round에는 아래 1번부터 6번까지의 과정을 수행하고, 2번째 round부터는 3번~6번 과정을 반복한다.

① 초기화: 서버는 공동으로 학습하려는 모델을 정의하고, 모델의 파라미터 초기화

② 클라이언트 선택: 연합학습 참여자(클라이언트)를 선택하고 통신하기 위해 연결

③ 글로벌 모델 배포: 서버는 공동으로 학습하려는 모델의 초기 버전(GM1)을 클라이언트에게 배포

④ 클라이언트(로컬) 학습: 각 클라이언트는 전송받은 초기 글로벌 모델(GM1)을 로컬 모델 (GM1=LM11,...,N, N: 클라이언트수)로 사용하고 보유한 로컬 데이터로 로컬 모델을 학습시킴

⑤ 로컬 모델 파라미터 공유: 각 클라이언트는 업데이트된 로컬 모델 파라미터를 서버로 전송

⑥ 파라미터 취합: 서버는 각 클라이언트에서 받은 모델 파라미터를 집계 (GM2 = AVGW1W2W3)) 하여 글로벌 모델을 갱신

①~⑥과 같은 연합학습 과정을 3개의 기관이 참여하여 동작하는 경우의 절차는 위의 그림 1과 같다.


Fig. 1. 
Example of federated learning process involving 3 institutions

2.2 그래프

그래프란 어떠한 관계망을 나타내는 자료구조를 의미한다. 관계형 데이터베이스에서는 하나의 데이터베이스 또는 테이블은 node로 표현되며, 데이터간의 연관성이 있거나 쿼리를 처리하기 위해 참조해야하는 데이터베이스 또는 테이블은 edge로 연결하여 표현한다. 예를 들어, 소셜 네트워크에서 사용자는 node로 표현되며, 친구 관계에 있는 사용자는 edge로 연결된다. 또 다른 예시로 분자 구조를 표현하기 위해서는 각 원자를 node로, 결합된 원자들 사이의 결합은 edge로 표현할 수 있다.

그래프를 표현하기 위한 두 가지 행렬 표현방법이 있으며 각 Adjacency Matrix와 Node Feature Matrix다. Adjacency Matrix는 각 행과 열이 순서대로 노드를 의미하며, 각 노드들이 연결되어 있는지, 두 node 사이에 edge가 있는지 여부를 정수로 나타낸 행렬로써 표기한다. Graph의 종류에 따라 단순 0 또는 1로 element들이 채워지지 않고, 실수가 되기도 한다. Node Feature Matrix는 각 노드들의 feature를 나타낸 행렬이다. 예를 들어 Social 관계망이라고 가정하면, 각 노드는 사람이 될 것이고, 각 사람이 갖고 있는 feature들은 성별, 연령 등의 정보가 되겠다. 이와 같은 성질로 행은 노드의 수가 되겠지만, feature 수만큼의 열을 가지고 있다.


Fig. 2. 
Graph example

2.3 GCN

CNN(Convolution Neural Network)에서는 filter가 image를 순회하며 연산하기 때문에 parameter를 공유한다. 이런 특성을 weight sharing이라고 부르며 이로 인해 학습할 paramter 수가 적어지며, overfitting의 문제점도 해결할 수 있다. 또한, conv filter를 사용하다보니 로컬한 feature를 잘 뽑아낼 수 있다는 장점과 down-sampling에 대한 효과를 얻을 수 있다는 장점이 있다. graph convolution을 이용하여 그래프에 포함된 node나 그래프 자체를 벡터 형태의 데이터로 변환한다. 기본적인 GCN에서는 node의 feature만을 고려한다.

GCN(Graph Convolutional Networks)은 Node Feature Matrix를 기반으로 Adjacency Matrix의 연산을 활용하여 합성곱을 진행한다. node feature matrix에 각 weight를 곱하고 bias를 더하여 activation function을 씌워주어 업데이트 한다. 모든 node의 weight가 다 동일하기 때문에 weight sharing을 가능하게 했다. 또한, 각 node의 n번째 인접한(Hop) node의 연결 여부를 알기 위해서 간단하게 Adjacency Matrix를 n번 곱하여 간단한 행렬 연산으로 합성곱을 적용할 수 있다.

2.4 STGCN

STGCN(Spatio-Temporal Graph Convolutional Networks) 모델은 행동인식을 위해 RGB, depth 등의 데이터 대신 관절 데이터를 활용하여 동작을 인식하는, 그림 3과 같은 그래프 기반 시계열 CNN 모델이다[20]. 이 모델에서 사용하는 관절 데이터는 동영상에 나타난 사람의 관절 정보를 시간 축에 따라 저장된 데이터를 활용한다. 관절의 위치값을 저장한 feature vector를 사용하지 않고, 연구자가 직접 지정해야하는 규칙 없이 학습할 수 있도록 하였으며, 다른 데이터셋에 적용해 일반화 할 수 있는 모델이다.


Fig. 3. 
Image-based graph creation, discrimination process

해당 모델은 시계열 정보를 학습하기 위하여 각 관절 위치에 해당하는 Joint들을 노드로 만들고, 시간에 따라 움직이는 각 노드를 엣지로 연결하여 공간, 시간 정보를 그래프화 한다. 동일 시간대(Frame)의 Joint 노드들과, 동일 노드의 변화를 엣지로 연결하는 그래프를 활용하는 모델이다. Convolution을 위한 Subset을 계산해야 하며, 각 Subset은 이웃 노드를 활용한다. 이웃 노드는 바로 인접한 노드 그룹, 해당 그룹에 Path에 따른 Weight 포함 그룹, 그리고 글로벌 중심노드를 기준으로 하는 거리 순의 Weight 포함 그룹 등으로 정의하는 방법들이 있으며, 해당 알고리즘은 중심노드를 기준으로 한 인접노드 선택 및 거리 기반 Weight를 활용하는 Subset이 가장 좋은 성능을 보인다고 발표했다.


Ⅲ. 설계 및 구현 실험
3.1 데이터 전처리

입력에 영상데이터를 직접적으로 활용하지 않은 이유는 학습에 사용하는 데이터의 1차적인 개인정보 비식별화, 기타 공간 배경정보를 학습하지 않기 위해서 관절 데이터만을 활용하여 전체 프레임워크를 구축하고자 하였고, 이에 따른 장점 또한 존재한다.

데이터를 수집하는 장치는 고화질이 아닌 관절 인식이 가능한 일정 수준 정도의 성능을 지닌 영상 촬영 수행 카메라만 포함하여도 되며, 새로운 학습이 진행될 때까지 영상데이터를 축적 가능한 고용량의 저장장치 대신, 그래프화 된 관절 데이터들만 보관하면 된다.

또한, 영상에서 직접적으로 특징을 추출하는 것이 아닌 관절 그래프에서 특징을 추출하는 만큼, 사람으로 인식되는 데이터만을 학습하며, 딥러닝 연산에 필요한 자원을 절약할 수 있다.

다만, 향후 데이터 수집을 담당하는 장비(Edge)는 영상데이터에서 관절 데이터를 추출하는 모델을 수행 가능해야 하며, 이를 위해 관절 데이터 전송을 위한 내부망(로컬) 통신이 가능한 연산장치에 촬영장치를 장착한 리눅스 기반의 GPU가 부착된 NVIDIA Jetson Nano, Xavier 등의 장치의 활용을 가정하며, 각 장비 별 데이터의 흐름은 그림 4와 같다.


Fig. 4. 
Example of Joint data association learning process

연합학습 프레임워크 동작에는 ETRI-Activity3D의 관절 데이터를 활용하였다[12].

해당 데이터는 큰 카테고리 8개로 구성되어있으며, 표 1과 같이 각 음식 9개, 용모 12개, 가사 8개, 여가 9개, 건강 5개, 사람 간 상호작용 5개, 사람-Unkown 상호작용 3개, 기타 4개로 총 55가지의 세부 클래스로 구성되어있다. 또한, 해당 데이터는 일상적인 주거환경에서 성인, 노인 각 50명씩 총 100명에 센서를 부착하여 수집한 공개데이터이며, 전체 데이터의 개수는 112,620개로 구성되어있다.

Table 1. 
ETTI-Activity3D data label
ID Action description ID Action description ID Action description
1 eating food with a fork 20 putting on/taking off shoes 38 smoking
2 pouring water into a cup 21 putting on/taking off glasses 39 clapping
3 taking medicine 22 washing the dishes 40 rubbing face with hands
4 drinking water 23 vacuuming the floor 41 doing freehand exercise
5 putting food in the fridge/taking food from the fridge 24 scrubbing the floor with a rag 42 doing neck roll exercise
6 trimming vegetables 25 wiping off the dinning table 43 massaging a shoulder oneself
7 peeling fruit 26 rubbing up furniture 44 taking a bow
8 using a gas stove 27 spreading bedding/folding bedding 45 talking to each other
9 cutting vegetable on the cutting board 28 washing a towel by hands 46 handshaking
10 brushing teeth 29 hanging out laundry 47 hugging each other
11 washing hands 30 looking around for something 48 fighting each other
12 washing face 31 using a remote control 49 waving a hand
13 wiping face with a towel 32 reading a book 50 flapping a hand up and down (beckoning)
14 putting on cosmetics 33 reading a newspaper 51 pointing with a finger
15 putting on lipstick 34 handwriting 52 opening the door and walking in
16 brushing hair 35 talking on the phone 53 fallen on the floor
17 blow drying hair 36 playing with a mobile phone 54 sitting up/standing up
18 putting on a jacket 37 using a computer 55 lying down
19 taking off a jacket

Table 2. 
ETTI-Activity3D Data Insight
Item Content
Sample 112,620
Action class 55
Total number of people 100 (50 adult, 50 old)
Environment apartment residential

3.2 연합학습 프로세스 구성 및 실험

그래프 데이터를 학습에 활용하고, 시계열적 요소를 반영하여 특징 추출이 가능한 STGCN 모델을 연합학습에 적용하였다. Pytorch 기반 연합학습 프레임워크에 적용할 수 있도록 세부적인 의존성 및 파라미터 조정을 하였으며, 메모리에 과부하를 줄 수 있는 불필요한 Gradient 연산을 최대한 배제하도록수정하였다.

STGCN 모델을 각 클라이언트에 적용하기 위해 기존 존재하던 모델의 의존성을 대폭 수정하였으며, 각 클라이언트에 모델을 따로 추출하여 직접 상속하는 방법으로 진행하였다. 이에 따라, DataLoader를 재정의하고, Train 동작부와 Evalutaion 동작부를 재설계하여 각 클라이언트에 직접 정의하여 연합학습이 복잡한 모듈 호출로 동작하지 않도록 구현하였다.

또한, 모델이 동작하면서 Gradient 연산을 감당하지 못하고 과도하게 적재되는 GPU 메모리 해소를 위해, 불필요한 Gradient 연산 및 전달 코드를 제거하였으며, 주기적인 round마다 메모리 클리어 작업을 진행하였다.

또한, 기존 STGCN이 가지고 있던 관절 순서 정보를 ETRI 데이터에 맞게 수정하였으며, 클라이언트 로컬데이터 구성을 위해 데이터를 일정 비율로 분할하였다.

서버는 GPU 연산을 수행하지 않으므로 GPU 없는 기기를 사용하였고, 클라이언트는 총 2대로 각 RTX 8000 두 개를 장착한 기기를 사용하였다.

Adap사에서 공개한 Django 기반 연합학습 프레임워크인 Flower를 활용하여 구현하였으며, Pytorch 모델을 기반으로 FedAVG 연산을 하도록 설계하였다[21]. Flower는 gRPC를 기반으로 클라이언트와 서버가 통신하며 모델의 파라미터를 전송한다.

각 로컬 클라이언트는 STGCN 기반 동작인식 모델 학습 수행하며 각 파라미터를 서버로 전송하며, 서버는 전송받은 파라미터를, 로컬 클라이언트에서 전송받은 데이터의 수(비율)을 적용하여 이를 평균 계산한다. 최종적으로 평균 계산된 파라미터를 다시 클라이언트로 전송하며, 이를 한 round로 설정하고 데이터 중앙집중형 모델 학습에서의 Epoch와 같이 각 round를 반복하며 학습을 진행했다.

그림 4의 Skeleton Joint Data 부와 같이, 관절 데이터를 ndarray형태로 변환한 뒤 압축하여 npz로 데이터를 전달받아 클라이언트의 로컬 모델에서 학습을 시작하며, 학습된 로컬 모델의 파라미터를 서버에 전달하여 글로벌 모델을 집계한다.


Ⅳ. 실험 평가
4.1 실험 검증

연합학습을 적용한 Joint 데이터 학습 STGCN 행동예측 모델을 평가하기 위해 사용한 평가지표는 Accuracy와 Loss를 사용하였다.

동일한 모델을 데이터 중앙집중형 학습 방식과 연합학습 방식으로 실험하여, 두 방법의 성능 차이를 검증하고자 하였다. 실험에 활용할 데이터 셋을 나누어 학습하였으며, 각기 d1, d2로 칭한다. d1, d2를 중앙집중형 방식으로 학습하며 Epoch에 따른 성능과 d1, d2를 각 로컬 Client에 학습하는 연합학습 방식의 round에 따른 성능을 측정하여 검증하였다.

정상 동작 여부 판별을 위해 25번째 round까지의 성능을 측정하였으며 아래 그림 5표 3에 5epoch 및 round 별 성능(Accuracy)을 기록하였다.


Fig. 5. 
Definition model performance by training data

Table 3. 
Performance by training data
original d1 original d2 client d1 client d2
5 0.1387 0.1868 0.1347 0.1351
10 0.1350 0.2108 0.3077 0.2994
15 0.1961 0.2646 0.3511 0.3242
20 0.2094 0.2610 0.3605 0.3387
25 0.2339 0.2276 0.4125 0.3819

총 25 epoch 및 round를 수행하며 동작을 검증한 결과, 연합학습을 활용하여 수행한 모델이 단 5라운드 만에 각 d1과 d2만을 학습한 모델 과 동일한 성능을 보였으며, 10번째 라운드부터는 보다 높은 성능을 보였다.

파라미터를 공유하지 않는 중앙집중형 학습의 경우 소유한 로컬데이터만 학습에 사용하는 반면, 연합학습은 각 클라이언트가 소유한 모든 데이터를 학습에 직-간접적 사용하기에 더욱 많은 데이터를 학습한 효과를 보이며, 이는 실험에서 중앙집중식 학습보다 높은 정확도를 달성할 수 있는 이유이다.

또한, 연합학습의 경우 라운드 별 각 클라이언트의 학습에 사용되는 모델이 동일하기에 클라이언트간 데이터 편향이 심하지 않은 경우 비슷한 양상의 정확도 향상을 보인다. 이는 행동예측 STGCN에 적용된 연합학습 방법이 직접적인 데이터 공유 없이도 데이터 정보를 공유 받으며, 보유한 로컬 데이터 이상의 퍼포먼스를 보일 수 있음을 증명하였다.

4.2 성능 평가

실제 성능을 평가하기 위해 전체 데이터를 모두 학습한 데이터 중앙집중형 모델과 연합학습으로 학습한 모델들의 성능을 비교하였다.

데이터 중앙집중형 모델(기존 학습방법)의 경우 100 epoch를 학습하였을 때, 약 0.88의 Accuracy를 보였으며 약 0.39의 Loss를 보였다.

연합학습 방법을 적용한 클라이언트들의 로컬 모델을 평균적으로 55~60 라운드 정도 안에 기존 학습방법과 유사한 성능을 보이는 것으로 확인하였다. 또한, 실험 도중 학습이 잘 된 클라이언트의 경우 Loss는 약 0.41로 기존 학습방법과 거의 흡사한 성능을 보였으며, Accuracy의 경우 약 0.89로 보다 높은 성능을 보였다.

최종적으로 본 실험은 총 90 round까지 연합학습을 수행하였으며, 최종 90 round에서 성능은 client d1의 경우 Loss 약 0.47, Accuracy 약 0.87이었고, client d2의 경우 Loss 약 0.48, Accuracy 약 0.87의 성능을 보였으며 아래 표 4, 5에 나타내었다.

Table 4. 
Existing learning VS federated learning Accuracy
epoch original
d1 + d2
round client d1 client d2
100 0.8887 55 0.88 0.89
60 0.87 0.89
90 0.87 0.87

Table 5. 
Existing learning VS federated learning Loss
epoch original
d1 + d2
round client d1 client d2
100 0.39 55 0.41 0.42
60 0.48 0.48
90 0.47 0.48

연합학습이 기존 학습방법인 데이터 중앙집중형 학습 대비 98% 이상의 성능을 꾸준히 달성함을 확인할 수 있다.


Ⅴ. 결론 및 향후 과제
5.1 결론

본 연구에서는 그래프 기반의 시계열 합성곱 모델인 STGCN을 활용하여 사람의 관절 데이터를 연합학습하는 실험을 수행하였으며, 기존 보편적 학습방법인 데이터 중앙집중형 학습 방법과 비교하여 검증 및 성능 평가를 진행하였다.

로컬 소유의 데이터만을 학습한 모델의 성능을 단 5 라운드 만에 뛰어넘었으며, 데이터를 모두 모아 중앙집중형 방식으로 학습한 모델의 98% 이상의 성능을 달성하였다. 데이터를 직접적으로 모두 학습하지 않았음에도, 기존 학습 방법과 비교하여 유사하거나 뛰어난 성능을 보일 수 있음을 확인하였다. 이는 연합학습 방법이 실제 활용 가능한 성능을 보임을 증명하였으며, 기존 공유가 사실상 불가능 했던 민감한 데이터에서 실제 적용 가능함을 보인다.

본 연구에서 구현한 시스템은 영상데이터와 관절 데이터를 활용하여 학습을 하였지만, 보다 직접적 의료데이터인 CT, MRI 등의 이미지나 시계열 정보인 EHR 등의 정보를 활용하여 학습이 가능할 것이다. 데이터 유출 및 직접 공유하지 않는 민감 데이터의 연합학습을 실증하였으며, 향후 의료, 금융 등 기타 민감 데이터에서의 연합학습이 유효할 것으로 기대된다.

5.2 향후 과제

향후 보다 높은 성능을 보이는 동작인식 모델을 적용을 통해 전체 성능을 높이는 고도화 실험을 진행하고자 하며, 오픈소스 활용이 아닌 프레임워크의 실제 구현을 통해 이를 완성하고자 한다.

또한, 동영상 및 관절 데이터 뿐만 아닌 CT, MRI 등 직접적 영상 의료데이터와 MIMIC(Medical Information Mart for Intensive Care III) 데이터 같은 분야에서도 연합학습을 실제 실험할 예정이다[22].


Acknowledgments

이 논문은 2021년도 한국지능정보사회진흥원이 지원하는 개방형 MEC 기반기술 상용화 실증사업으로 수행된 연구임(No. 2021-인프라-위25) 또한 2023년도 교육부의 재원으로 한국연구재단의 지원을 받아 수행된 지자체-대학 협력기반 지역혁신 사업의 결과임(2022RIS-005)


References
1. K. Bonawitz, et al., "Towards federated learning at scale: system design", arXiv preprint, Feb. 2019.
2. H. K. Ko, "A Study Personal Information Protection Technique for XML-based Electronic Medical Record", Journal of KIIT, Vol. 12, No. 5, pp. 185-191, May 2014.
3. W. Li, et al., "Privacy-preserving federated brain tumour segmentation", International Workshop on Machine Learning in Medical Imaging MLMI 2019: Machine Learning in Medical Imaging, Vol. 11861, pp. 133-141, Oct. 2019.
4. M. J. Sheller, G. A. Reina, B. Edwards, J. Martin, and S. Bakas, "Multi-Institutional Deep Learning Modeling Without Sharing Patient Data: A Feasibility Study on Brain Tumor Segmentation", International MICCAI Brainlesion Workshop BrainLes 2018: Brainlesion: Glioma, Multiple Sclerosis, Stroke and Traumatic Brain Injuries, Vol. 11383, pp. 92-104, Jan. 2019.
5. M. J. Sheller, et al., "Federated learning in medicine: facilitating multi-institutional collaborations without sharing patient data", Nature Scientific Reports, Vol. 10, No. 12598, Jul. 2020.
6. H. J. Kim, S. E. Hong, and K. J. Cha, "seq2vec: analyzing sequential data using multi-rank embedding vectors", Electronic Commerce Research and Applications, Vol. 43, Sep. 2020.
7. H. Cho and S. M. Yoon, "Divide and conquer-based 1D CNN human activity recognition using test data sharpening", Sensors, Vol. 18, No. 4, Apr. 2018.
8. R. Mutegeki and D. S. Han, "A CNN-LSTM approach to human activity recognition", In 2020 International Conference on Artificial Intelligence in Information and Communication(ICAIIC), IEEE, Fukuoka, Japan, pp. 362-366, Feb. 2020.
9. R. Kolkar and V. Geetha, "Human activity recognition in smart home using deep learning techniques", In 2021 13th International Conference on Information & Communication Technology and System(ICTS), IEEE, Surabaya, Indonesia, pp. 230-234, Oct. 2021.
10. D. Bouchabou, S. M. Nguyen, C. Lohr, B. LeDuc, and I. Kanellos, "A survey of human activity recognition in smart homes based on IoT sensors algorithms", Taxonomies challenges and opportunities with deep learning, Sensors, Vol. 21, No. 18, Sep. 2021.
11. S. Hong, J. Bang, Y. Kim, and H. Kim, "Research on Time Aligned-LSTM Human Activity Prediction Model using Time Information", Journal of KIIT, Vol. 20, No. 10, pp. 29-37, Oct. 2022.
12. J. Jang, D. Kim, C. Park, M. Jang, J. Lee, and J. Kim, "ETRI-Activity3D: A Large-Scale RGB-D Dataset for Robots to Recognize Daily Activities of the Elderly", International Conference on Intelligent Robots and Systems(IROS) 2020, Las Vegas, NV, USA, pp. 10990-10997, Oct. 2020.
13. M. J. Seller, B. Edwards, G. A. Reina, J. Martin, S. Pati, A. Kotrotsou, and S. Bakas, "Federated learning in medicine: facilitating multi-institutional collaborations without sharing patient data", Scientific reports, Vol. 10, No. 1, pp. 1-12, Jul. 2020.
14. Q. Dou, T. Y. So, M. Jiang, Q. Liu, V. Vardhanabhuti, G. Kaissis, and P. A. Heng, "Federated deep learning for detecting COVID-19 lung abnormalities in CT: a privacy-preserving multinational validation study", NPJ digital medicine, Vol. 4, No. 1, pp. 1-11, Mar. 2021.
15. Y. Chen, X. Qin, J. Wang, C. Yu, and W. Gao, "FedHealth: A Federated Transfer Learning Framework for Wearable Healthcare", in IEEE Intelligent Systems, Vol. 35, No. 4, pp. 83-93, Jul. 2020.
16. H. Lee, S. Hong, J. Bang, and H. Kim, "Study of Optimization Techniques to Apply Federated Learning on Class Imbalance Problems", Journal of KIIT, Vol. 19, No. 1, pp. 43-54, Jan. 2021.
17. J. Bang, S. Hong, S. U. Kim, and H. Kim, "A Study on User Health Information Prediction Using Federated Learning", Proc. of Symposium of the Korean Institute of communications and Information Sciences, Vol. 2021, No. 2, pp. 769-770, 2021.
18. S. E. Hong, J. Bang, and H. J. Kim, "A study on the application of federated learning Distributed Data to the Medical Field", Proc. of Symposium of the Korean Institute of communications and Information Sciences, Vol. 2021, No. 6, pp. 73-74, 2021.
19. S. U. Kim, H. Lee, J. Bang, S. E. Hong, and H. J. Kim, "Implementation of Federated Learning Using Probabilistic Sampling Techniques Based on Data Distribution Estimation to Solve Statistical Heterogeneity Problems", The Journal of KICS, Vol. 46, No. 11, pp. 1941-1949, Nov. 2021.
20. B. Yu, H. Yin, and Z. Zhu, "Spatio-temporal graph convolutional networks: A deep learning framework for traffic forecasting", arXiv preprint arXiv:1709.04875, Sep. 2017.
21. D. J. Beutel, et al., "Flower: A Friendly Federated Learning Research Framework", arXiv preprint arXiv:2007.14390, Jul. 2020.
22. A. E. W. Johnson, et al., "MIMIC-III, a freely accessible critical care database", Scientific data, Vol. 3, No. 1 pp. 1-9, May 2016.

저자소개
방 준 일 (Junil Bang)

2018년 9월 ~ 2020년 8월 : 강원대학교 컴퓨터정보통신공학과 (공학석사)

2020년 9월 ~ 현재 : 강원대학교 컴퓨터정보통신공학과 박사과정

관심분야 : 데이터분석, 머신러닝

홍 성 은 (Seongeun Hong)

2015년 : 강원대학교 컴퓨터정보통신공학부 (공학석사)

2015년 ~ 2019년 8월 : 강원대학교 컴퓨터정보통신공학과(박사수료)

2023년 ~ 현재 : 한국제약바이오협회 인공지능신약개발지원센터 선임연구원

관심분야 : 빅데이터, 데이터 마이닝, 기계학습, 딥러닝

전 석 환 (Sukhwan Jeon)

2022년 : 강원대학교 기계의용공학과(공학사)

2022년 ~ 현재 : 강원대학교 컴퓨터정보통신공학과 석사과정

관심분야 : 기계학습, 딥러닝, 빅데이터

이 주 원 (Joowon Lee)

2017년 ~ 2023년 : 강원대학교 정보통신공학전공(공학사)

2023년 ~ 현재 : 강원대학교 컴퓨터정보통신공학과 석사과정

관심분야 : 빅데이터, 기계학습, 인공지능

김 화 종 (Hwajong Kim)

1984년 3월 : KAIST 전기및전자공학과 (공학석사)

1988년 3월 : KAIST 전기및전자공학과 (공학박사)

1988년 3월 ~ 현재 : 강원대학교 컴퓨터정보통신공학과 정교수

관심분야 : 데이터 통신, 컴퓨터네트워크, 네트워크 프로그래밍, 빅데이터