| Home | JKIIT Archives | About the JKIIT | E-SUBMISSON |
Sorry.
You are not permitted to access the full text of articles.
If you have any questions about permissions,
please contact the Society.
죄송합니다.
회원님은 논문 이용 권한이 없습니다.
권한 관련 문의는 학회로 부탁 드립니다.
| [ Article ] | |
| The Journal of Korean Institute of Information Technology - Vol. 24, No. 1, pp. 15-27 | |
| Abbreviation: Journal of KIIT | |
| ISSN: 1598-8619 (Print) 2093-7571 (Online) | |
| Print publication date 31 Jan 2026 | |
| Received 26 Sep 2025 Revised 12 Nov 2025 Accepted 15 Nov 2025 | |
| DOI: https://doi.org/10.14801/jkiit.2026.24.1.15 | |
| AI 기반 반려앵무 자세 추정 및 행동 분석 연구 | |
강대훈*
; 송성은**
; 노광현***
| |
| *한성대학교 스마트융합컨설팅학과 공학박사과정 | |
| **이데아아이주식회사 대표이사 | |
| ***한성대학교 AI응용학과 교수(교신저자) | |
AI-based Posture Estimation and Behavior Analysis of Companion Parrots | |
Dae Hun Kang*
; Sung Eun Song**
; Kwnag Hyun Ro***
| |
| Correspondence to : Kwnag Hyun Ro Dept. of Applied AI, 116, Samseongyo-ro 16-gil, Seongbuk-gu, Seoul, Republic of Korea Tel.: +82-2-760-8013, Email: khrho@hansung.ac.kr | |
Funding Information ▼ | |
본 연구는 AI 기술을 활용하여 반려앵무의 자세를 추정하고 새장 내 위치 정보를 연계한 행동 분석 방법을 제안한다. 기존의 Keypoint 기반 자세 추정 방식은 조류의 형태적 특성과 복잡한 환경으로 인해 정확성과 안정성에 한계가 있었다. 이를 극복하기 위해 다단계 객체 검출 기법을 적용하였다. 앵무새 전체를 탐지한 후, 관심 영역 내에서 머리, 꼬리, 발을 재탐지하여 Y자형 스켈레톤을 구성하였다. 이어 중심점을 기준으로 한 각도 변화량과 케이지 내 물통, 밥통, 횃대의 위치 정보를 연계하여 먹이 섭취, 물 마시기, 휴식, 기지개 등의 행동을 분류하였다. 객체 검출에는 YOLO 모델을 사용하였으며, 제안된 모델은 높은 정확도와 재현율을 확보하였고, 실제 행동 인식 정확도 역시 Ground Truth 기반 실험을 통해 검증되었다. 본 연구는 반려조류의 스트레스 평가, 자율형 스마트 케이지 등으로의 확장 가능성을 제시한다.
This study presents an AI-based approach for posture estimation and behavior analysis of companion parrots by integrating spatial information within a cage. Conventional keypoint-based methods have suffered from limited accuracy and robustness due to avian morphology and complex environments. To overcome these challenges, a multi-stage object detection technique was applied. The parrot was first detected as a whole, and then the head, tail, and feet were re-detected to construct a Y-shaped skeleton. Angular variations of the skeleton, combined with the positions of cage components such as the water bowl, food container, and perch, enabled classification of behaviors including feeding, drinking, resting, and stretching. YOLO was adopted as the object detection model, and the system achieved high accuracy and recall, validated through Ground Truth experiments. The findings highlight potential applications in stress assessment and autonomous smart cages for companion birds.
| Keywords: companion parrot, posture estimation, behavior analysis, multi-stage object detection, YOLO |
|
오늘날 반려동물은 사육자와 정서적 교감을 나누는 대상이자 일상 속에서 삶의 질을 향상시키는 동반자로 자리매김하고 있다. 특히 반려동물과의 상호작용은 인간의 정서 안정, 외로움 감소, 심리적 지지 효과 등 다양한 긍정적 영향을 미치는 것으로 보고되며, 반려동물을 가족과 동일하게 대하는 펫 휴머나이제이션(Pet humanization) 경향이 뚜렷하게 나타나고 있다. 이러한 인식 변화는 한국에서도 확산되고 있으며, 2020년 전체 가구 기준 약 30%가 반려동물을 기르고 있고, 반려인구는 1,400만 명을 넘어서는 것으로 나타났다. 이처럼 반려동물과의 정서적 유대가 사회문화적으로 확산되는 흐름 속에서, 반려동물의 건강과 복지를 보다 체계적으로 관리하려는 수요가 증가하고 있다. 이에 따라 인공지능(AI), 웨어러블 센서, 모바일 애플리케이션 등 디지털 기술과 융합된 반려동물 돌봄 시스템을 지칭하는 펫테크(Pet-tech)가 주목되고 있으며, 이는 반려동물의 생체 정보 모니터링과 행동 분석을 통한 정밀한 건강관리 방식으로 발전하고 있다[1]-[3].
세계적으로 반려조류 시장은 성장세를 보이며, 특히 앵무새는 10~50년의 긴 수명과 높은 지능, 사회성으로 반려동물로서 가치가 크다. 현재 미국에서는 약 2,060만 마리가 사육되며 반려동물 시장의 주요 비중을 차지했고, 국내 시장도 2021년 기준 약 1,000억 원 규모로 성장했다. 지능이 높은 만큼 스트레스에 민감해 장기간의 건강·복지 관리가 필수적이며, 이에 따라 전문적 행동 분석 및 모니터링 수행 기술의 필요성이 높아지고 있다[4][5].
앵무새는 높은 인지 능력을 가진 조류로, 자극에 민감하게 반응하며 다양한 행동을 통해 자신의 건강 상태나 심리적 스트레스 정도를 외부에 표출한다. 기존 연구에 따르면, 깃털 손질(Preening), 기지개 펴기(Stretching), 졸음, 수면 자세(Perching sleep) 등은 정상적이고 편안한 상태에서 나타나는 대표적인 행동이며, 이러한 행동은 깃털손질, 비행준비, 또는 체온조절 등 생리적 목적과도 관련이 있다[6][7]. 반면, 스트레스 받은 앵무새는 자해(Feather pluck), 반복 비행(Repeated flap), 일정 경로를 도는 행동(Pacing), 구석 숨기(Corner hiding), 공격적 자세(Aggressive posture) 등 비정상적인 스트레스 반응 행동을 보인다. 이 중 깃털 뽑기나 반복 이동 행동은 이미 다양한 선행 연구에서도 문제행동으로 명시되어 있으며, 특히 스트레스 상태에서 나타나는 대표적인 징후로 인식된다[8].
이러한 행동 기반 지표들은 비언어적이면서도 신뢰도 높은 건강 및 복지의 평가 수단으로 작용할 수 있으며, 관찰 기반 모니터링보다 자동화된 분석 시스템의 필요성을 제기한다. 특히 앵무새는 개체 간 행동 차이가 크고, 사육 환경이나 사료, 사회적 자극 등에 따라 반응이 다양하게 나타날 수 있으므로, 이를 실시간으로 정량 분석할 수 있는 컴퓨터 비전 기반 시스템 도입이 필요하다. 그러나 현재까지 상용화된 대부분의 반려동물 행동인식 기술은 반려견이나 반려묘 등 포유류에 한정되어 있으며, 이들은 대개 위치 추적, 활동량 기록, 식사 알림 수준의 기능에 머무른다. 이에 비해 조류, 특히 앵무새처럼 지능이 높고 개체 행동이 세밀한 종에 대한 자동 행동 분석 기술 연구는 극히 드물다. 이는 기존 동물 자세 추정 기술이 인간 중심의 Keypoint 모델에 기반하고 있기 때문이며, 깃털로 덮여 윤곽이 불분명한 조류의 형태적 특성, 비정형적이고 빠른 움직임, 그리고 좁은 케이지 환경에서의 복잡한 배경이 Keypoint 탐지를 더욱 어렵게 만든다[9][10].
HRNet, PoseNet과 같은 대표적인 자세 추정 프레임워크는 주로 인간이나 일부 포유류의 관절 구조 기반으로 설계되어 있으며, 조류와 같이 체형이 상이하고 동작의 자유도가 높은 동물에게는 적용 시 성능 저하가 빈번하게 발생한다. 특히 조류의 경우, 공개된 대규모 학습용 데이터셋이 거의 존재하지 않아 신뢰도 높은 모델 학습 자체가 어렵다[11][12].
본 연구에서는 Keypoint 방식의 구조적 한계를 극복하고, 복잡한 배경과 조류 특유의 불규칙한 형태로 인해 Keypoint 기반 자세 추정이 신뢰성 있게 작동하기 어려운 환경에서도 견고한 성능을 보일 수 있도록, YOLO 기반 객체 탐지 기법을 조류 자세 분석에 도입하였다. 앵무새와 해당 위치를 탐지한 후, 관심 영역인 ROI(Region of Interest) 내부에서 머리, 꼬리, 발을 재탐지하여 Y자 형태의 스켈레톤을 구성하고, 중심점을 기준으로 각도 변화량을 계산하여 위치정보와 연동해서 물 마시기(Drinking), 먹이 섭취(Eating), 휴식(Resting) 등의 행동을 판별하였다. 케이지 내 물통, 밥통, 횃대는 세그멘테이션을 통해 구획되었으며, 해당 위치와의 관계를 바탕으로 행동의 공간적 맥락을 정량적으로 분석하였다. 또한 횃대 위에서 날개를 편 상태를 추가로 탐지함으로써 기지개(Stretching) 행동까지 판별 가능하도록 설계하였다. 본 연구는 객체 기반의 다단계 탐지 구조를 통해 조류 행동 분석의 실시간성 및 정량성을 실증적으로 입증하였다.
조류의 자세와 행동 추정에 관한 연구는 일부 진행되었으나, 상업화된 동물인 닭 등 가금류 연구에 비해 선행 연구가 적다. 기존 조류 연구를 참조하는 것도 의미가 있으나, 대부분은 자연 서식 환경에 초점을 맞춘 사례가 많아 반려 조류의 특성을 충분히 반영하기 어렵다. 반면 가금류 연구는 조류와 형태·행동적 특성이 유사하면서도, 객체 탐지와 같은 기술적 측면의 심화 연구가 축적되어 있어 이를 병행하여 검토하는 것이 바람직하다.
인간의 자체 추정에 널리 사용되는 Keypoint 추정 방식은 조류나 가금류의 형태적 특성과 복잡한 사육 환경으로 인해 정확도와 안정성이 크게 저하되는 한계를 지닌다. 이러한 문제를 해결하려는 선행연구로 조류와 유사한 형태·행동적 특성을 가지는 가금류인 닭을 대상으로 한 MCP(Multi- Chicken Pose) 모델은 전이학습(Transfer) 기반의 top-down 방식으로 주목을 받았다. 이 방식은 먼저 YOLO 계열 탐지기를 활용해 각 개체를 식별한 후, 해당 바운딩 박스 내부에서만 자세를 추정하는 이중 구조설계이다. 이를 통해 모델 복잡도를 줄이면서도 Keypoint 수준의 정밀도를 확보할 수 있었고, 실제로 mAP 0.652 및 RMSE 17.3px라는 성능을 기록하며 사육환경에서의 적용 가능성을 입증하였다. 특히 top-down 방식은 개체 단위의 식별 이후에 부위를 예측하기 때문에, 배경에 의한 간섭을 효과적으로 줄일 수 있다는 점에서 안정성을 확보하는 데 유리하다[13]. 이 방식은 닭의 신체 비율과 움직임 특성에 특화되어 있어, 앵무새와 같은 소형 조류에 직접 적용하면 관절 위치 오인식과 자세 분류 오류가 발생할 가능성이 크다. 가금류를 대상으로 검증된 연구이므로, 머리, 몸, 다리 등의 형태적 특성과 부위 비율 및 움직임 특성이 다른 앵무새에 적용하기 위해서는 별도의 최적화된 연구가 필요하다.
자세 추정에 시간 정보를 더한 조류의 행동 분석 연구도 함께 진행되고 있다. PoseNet을 이용해 영상의 각 프레임에서 새의 자세(몸의 뼈대 모양)를 추출한 뒤, GRU 모델을 이용해 시간의 변화에 따라 자세가 어떻게 바뀌는지를 분석하는 방식이다. 이 방법은 한 장면에서의 자세만 보는 것이 아니라, 여러 장면을 연결해서 동작의 흐름을 이해할 수 있게 해준다. 실제로 이 방식은 사람이 넘어지는(낙상) 동작을 감지하는 연구에 사용되기도 했다. 이와 같은 접근은 단일 프레임 기준의 자세 인식에서 나아가, 시간에 따른 행동 흐름을 학습하여 행동 인식으로 확장하고자 하는 시도로 볼 수 있다[11]. 그러나 기존 연구는 조류의 빠른 날갯짓이나 횃대, 먹이통 및 사육기구 등 환경 요소와의 상호작용을 고려하지 않아, 복잡한 케이지 환경에서의 세밀한 행동 구분에는 명확한 한계가 있다. 주변 환경 요소와의 공간적 관계까지 반영하였다면, 보다 다양한 연계 정보를 활용해 행동 분석의 정확도를 높일 수 있었을 것으로 판단된다.
YOLO와 같은 객체 탐지 기반 접근법은 Keypoint 방식보다 데이터셋 수요가 적고, 학습 안정성이 높으며, 처리 단위가 프레임 기준으로 작동하므로 실시간 분석에 적합하다. 특히 신체 부위 간 경계가 불분명하고 자세 변화가 큰 조류를 대상으로 할 경우, 객체 탐지 방식이 효과적이다. 실제로 YOLO 및 SSD를 활용한 앵무새 11종 분류 실험에서는 96.6%의 정확도를 달성하였고, 이는 종 분류를 넘어 밀수 및 불법거래 종의 식별 등 응용 가능성을 시사한다. 해당 모델은 낮은 연산량에도 불구하고 높은 정확도를 확보할 수 있어, 실시간 모니터링이 요구되는 상황에서 유용하다[9]. 다만, 이 연구들은 종 식별에 초점을 맞추고 있어, 개체의 세부 행동을 파악하거나 환경과의 관계를 해석하는 데 필요한 공간적·시간적 정보를 충분히 반영하지 못한다. 이러한 방식은 복잡한 환경에서 다 객체를 동시 처리할 경우 컴퓨팅 자원이 많이 소모되는 한계가 있다.
이러한 객체 탐지 방식의 장점은 YOLOv10 기반 제스처 탐지 연구에서도 두드러진다. YOLOv10의 신속한 Inference 속도와 높은 정확도를 활용해 단일 네트워크로 조류의 객체 탐지와 행동 분류를 동시 수행하여, 제스처를 다섯 가지로 분류하는 데 성공했으며, 이는 실시간 영상 분석이 요구되는 생태 모니터링 및 농장 자동화 시스템에서 활용 가능성이 높다. YOLO의 다단계 탐지 구조는 이미지를 격자형으로(Grid) 분할한 후, 각 셀에 대해 객체 여부를 판단하는 구조로, 부가적인 후처리 없이도 경량화된 예측이 가능하다. 비행 중인 조류를 대상으로 한 탐지 연구에서도 YOLOv5와 YOLOv8이 적용되었으며, 하늘, 수목, 인공 구조물 등 다양한 자연환경에서도 높은 견고성을 보였다. 이는 YOLO 기반 모델이 이동이 활발한 동물을 탐지하는 데에도 효과적이라는 점을 보여준다[14][15]. 그러나 이러한 연구들은 이미지 탐지 성능에 초점을 두고 있어, 탐지된 객체의 위치 정보를 연계해 실시간 영상에서 행동을 정밀하게 해석하는 기법이 미흡하며, 신뢰도가 낮다.
따라서 본 연구에서는 먼저 앵무새를 탐지한 뒤 ROI 안에서 머리, 꼬리, 발, 날개 등 세부 부위를 다시 탐지하여 연산 효율과 탐지 정확도를 동시에 확보하였다. 이러한 다단계 구조는 전체를 매번 세부 분석하는 방식보다 불필요한 계산을 줄여 자원을 절감하고, 복잡한 배경이나 노이즈가 많은 환경에서도 주요 부위를 안정적으로 추출할 수 있다. 일괄 Keypoint 탐지보다 훨씬 유리한 구조이며, 실제 실험에서도 안정적인 스켈레톤 추출이 가능하였다.
본 연구에서는 이러한 다단계 탐지 구조를 활용하고, 케이지 내 물통·먹이통·횃대 등 환경 요소를 세그멘테이션으로 분리한 위치 정보와 융합하여, 앵무새 행동을 세부적으로 구분하고 이를 행동 패턴과 공간적 맥락 속에서 복합적으로 해석할 수 있는 방법을 제안한다. 이를 통해 앵무새가 특정 위치에서 보이는 동작을 환경 정보와 함께 정밀 분석하여, 음수·섭식·기지개·휴식 행동 판단을 지원한다.
본 연구는 객체 기반 다단계 탐지를 통해 앵무새 행동 분석의 실시간 처리와 정량적 판단의 가능성을 실증적으로 제시한다. 본 연구는 먼저 케이지 내 물통(Water), 밥통(Feeder), 횃대(Perch)를 세그멘테이션 기법을 통해 영역별 구획하고, 위치값의 상관관계를 고려하여 앵무새의 행동을 판별하였다. 객체 탐지는 YOLO 모델을 선택 활용하여 앵무새를 먼저 탐지한 뒤, ROI 내에서 세부 부위인 머리, 꼬리, 다리를 순차적으로 탐지하는 방식으로 진행하였다. 탐지 부위의 중심 좌표 기반으로 Y자 형태의 스켈레톤을 구성하고, 이 스켈레톤 각도 변화량을 계산하여 앵무새의 물 마시기, 먹이 섭취, 휴식 3가지 주요 행동을 위치정보와 연계하여 분석하였다. 특히 횃대 위에서 날개를 펼친 자세가 감지하여 기지개 행동으로 분류할 수 있도록 설계하였다.
그림 1은 YOLO 기반 객체 탐지 모델을 이용해 앵무새를 식별하고, 탐지된 ROI 내부에서 머리, 꼬리, 다리, 날개를 추가적으로 검출하는 2단계 탐지 구조를 제시한다. 그림 1(a)는 입력 영상에서 앵무새객체 탐지 및 바운딩 박스(Bounding box) 생성 과정을 나타내고, 그림 1(b)는 ROI 안에서 세부 부위를 식별한 결과를 보여준다. 이러한 Top-Down 방식은 단일 프레임에서 부위 좌표를 안정적으로 확보할 수 있도록 한다.
그림 2는 그림 1의 탐지 결과를 바탕으로 Feeding과 Drinking을 분류하는 과정이다. 그림 2(a)에서는 사전에정의된 세그멘테이션 마스크를 이용해 케이지 내 물통, 밥통, 횃대 영역을 구분, 탐지된 발과 머리 좌표가 어느 영역에 속하는지 판별한다. 그림 2(b)에서는 머리(Head), 꼬리(Tail), 다리(Foot), 몸 중앙(Body Center)을 연결한 Y자 스켈레톤을 이용해 Angle(H–BC–F), Angle(T–BC–F)를 계산하고, 그림 2(c)에서는 각도 변화량을 기반으로 먹이 섭취 및 음수 행동의 발생 시점을 정량적으로 판별한다.
그림 3은 날개 탐지를 포함한 Stretching 분류 절차를 나타낸다. 그림 3(a) 세그멘테이션으로 위치 정보를 확보하고, 그림 3(b) 날개 부위가 탐지되면 기지개 후보로 설정한다. 그림 3(c)에서는 날개가 횃대 위에서 일정 시간 유지되는지를 확인하여 Stretching으로 확정한다.
그림 4는 그림 1, 2, 3의 내용을 통합한 알고리즘 흐름도이다. 입력 프레임은 전처리 후 YOLO 탐지기로 앵무새를 식별하고, ROI에서 머리, 꼬리, 다리, 날개를 추출해 Body Center와 각도를 계산한다. 이어 세그멘테이션 마스크로 케이지 공간 정보를 반영하고, 머리와 다리 위치 및 각도 변화를 평가한다. θ 범위는 Resting(110°–60°), Eating(<60°), Stretching(<10°)으로 정의하며, 일정 시간(τ_resting) 동안 θ 분산이 낮으면 Resting으로 판단한다. 이 값들은 본 연구에서 사용한 새장 구조와 개체 조건을 기준으로 경험적으로 설정한 것으로, 다른 환경이나 개체에서는 조정이 되어야 할 것이다.
날개가 횃대에서 T_threshold 이상 유지되면 Stretching으로 확정하고, 머리와 다리가 먹이통 또는 물통에 위치하고 각도가 임계값 이하로 줄면 Feeding 또는 Drinking으로 분류한다. 최종적으로 알고리즘은 Feeding, Drinking, Resting, Stretching의 네 행동을 자동 인식하고, 발생 횟수와 지속 시간을 산출한다.
이러한 임계값은 사람이 직접 영상을 관찰하여 행동을 구분한 결과와 모델의 탐지 데이터를 비교·대조하여 산출하였다. 각 행동에 대해 라벨링한 구간과 모델이 자동 탐지한 구간의 데이터를 비교하여 일치율이 가장 높게 나타난 범위를 최종 임계값으로 결정하였다. 이를 통해 휴식의 지속시간과 스트레칭의 유지시간은 재현성이 높은 기준으로 설정되었다.
데이터는 실내 사육 환경(25 ± 2 °C, 350–400 lux)에서 사육 중인 코뉴어 앵무새 4마리를 대상으로 수집하였다. 케이지에는 먹이통, 물통, 횃대를 고정하였으며, 그림 5와 같이 두 대의 1920×1080, 30 fps 카메라를 설치, 동시 촬영하였다. Cam1은 개체 전신을 포함한 섭식·음수 행동을, Cam2는 횃대 주변의 기지개 동작을 촬영하여 상호보완적 활용하였다. 두 카메라를 병행 사용한 목적은 주요 행동인 물 마시기, 먹이 섭취, 휴식, 기지개의 탐지 정확도를 높이는 동시에, 향후 프리닝(Preening)이나 부리 긁기(Beak trimming) 등 정서적 안녕 행동까지 확장 가능한 데이터 기반을 마련하기 위함이다.
행동 유형별 데이터는 먹이 및 음수의 경우 train 137장, val 39장, test 21장으로 총 197장, 스트레칭 동작의 경우 train 65장, val 18장, test 10장으로 총 93장으로 구성되었다. 그림 5의 카메라 배치는 행동별 시야 확보를 고려해 설정하였다.
라벨링은 관찰자가 직접 수행하였으며, 촬영된 연속 영상을 1초 간격으로 추출하여 LabelImg 툴을 이용해 프레임 단위로 진행하였다. 라벨 클래스는 Parrot, Head, Tail, Foot, Wing의 5종으로 정의하였으며, 각 개체의 주요 신체 부위를 기준으로 정밀하게 표시하였다. 행동 데이터는 휴식, 섭식, 기지개, 세 범주로 구분하였고, 라벨링된 바운딩박스는 YOLO 형식을 사용하였다.
모델 학습은 그림 6과 같이 Ultralytics YOLO 프레임워크를 활용하여 GPU (NVIDIA RTX 3080) 환경에서 수행되었으며, 총 200 epoch 동안 학습을 반복하였다. 입력 이미지 해상도는 720×720 픽셀로 고정하였고, batch size는 32로 설정하였다. 모델의 안정성과 비교 가능성을 확보하기 위해 augmentation 기법은 적용하지 않고 기본 파라미터 설정을 유지하였다. 학습된 최종 모델은 발 및 날개 클래스까지 반영한 결과를 포함하며, 이후 수행된 행동 분석 및 자세 추정 실험에서 탐지 결과 산출에 활용하였다.
본 연구에서는 전처리된 영상 프레임을 입력받아, 실시간으로 앵무새 개체와 세부 부위인 머리, 꼬리, 다리, 날개를 탐지하고, 이를 기반으로 중심점을 기준으로 하는 Y자형 스켈레톤을 구성하였다.
각 프레임마다 머리, 꼬리, 다리의 중심점을 연결하여 중심점(BC, Body Center)을 산출하고, 이를 기준으로 Angle(H–BC–F) 및 Angle(T–BC–F) 두 가지 각도를 계산함으로써 앵무새의 자세 변화를 정량적으로 추적하였다. 해당 각도 값은 앵무새의 상체 굽힘 정도를 반영하며, 중심점 위치와 다리의 위치가 케이지 내 특정 세그멘테이션 영역과 일치하는지를 함께 고려하여 행동을 자동으로 분류하였다. 행동 분류에 적용된 조건은 표 1과 같다.
| Behavior type | Angle(H+BC-F) condition | Foot position | Head position | Additional condition |
|---|---|---|---|---|
| Drinking | Below predefined threshold | Water or Feeder | Water | Angle(H-BC-F) variation ≥ 20° |
| Feeding | Feeder | Angle(H+BC-F) variation ≥ 20° | ||
| Resting | Small and stable angle variation | Perch | - | - Angle(H+BC-F) & (T-BC-F) variation < 5° (stable) - Movement of the center point ≤ 5px |
| Stretching | (ignored) | Perch | - | Wing object detected in the frame |
위치 정보는 사전에 정의된 RGB 색상 기반 세그멘테이션 마스크를 통해 획득되며, 각 세그먼트(밥통, 물통, 횃대)는 특정 색상 값으로 지정되어 있어, 실시간으로 발 좌표와 마스크 위치를 비교함으로써 공간적 맥락을 자동 추론할 수 있다. 특히 본 연구에서는 날개 부위의 탐지 결과를 독립적인 판별 요소로 활용하였다. 앵무새가 횃대 위에 있으면서 날개 객체가 탐지되는 경우, 각도 분석을 수행하지 않고 기지개 동작으로 직접 분류한다. 이는 각도 기반 분석 경로를 우회하는 일종의 shortcut rule이며, 앵무새 특유의 날개 펼침 행동을 효과적으로 인식하기 위한 규칙 기반 예외 처리 방식이다.
본 분석 모듈은 스켈레톤 기반의 각도 분석과 위치 정보, 그리고 날개 탐지 여부를 통합적으로 활용함으로, 영상 내 앵무새의 주요 행동을 실시간으로 분류하고 해석할 수 있도록 구성되었다.
앵무새의 세부 신체 부위 탐지시 머리는 일반적으로 bounding box의 상단에 위치하도록 지정되었으며, 꼬리는 후방 하단, 발은 양측 하단부로 기준을설정함으로써 라벨의 일관성을 확보하였다. 세그멘테이션 마스크는 케이지 내부의 행동 대상 지점인 물통, 먹이통, 횃대를 정확히 구획하기 위해 RGB 기반의 색상 분할 방식으로 제작하였다. 해당 마스크는 정지 프레임 이미지 상에서 각 위치에 고유한 RGB 값을 부여하여 구분하였으며, 이를 통해 모델은 다리의 좌표와 마스크 색상값을 비교함으로써, 앵무새가 현재 어느 지점에 위치하는지 실시간 판단할 수 있다. 그림 7은 케이지 내에서 앵무새의 위치를 정밀하게 파악하기 위해, 물통, 먹이통, 횃대 영역을 RGB 기반으로 분할하여 제작한 세그멘테이션 맵과 각 항목별 마스크를 나타낸다.
본 연구에서는 탐지된 객체 정보와 위치 기반 조건, 스켈레톤 각도 분석 결과를 통합적으로 활용하여 앵무새의 주요 행동인 ‘휴식’, ‘먹이 섭취’, ‘물 마시기’, ‘기지개’ 행동을 자동 판별하도록 구축하였다. 시스템은 각 행동에 대해 독립적인 판별 규칙을 적용하고, 행동의 발생 시간 및 횟수를 측정하여 최종적으로 정량적 결과를 산출하도록 구성하였다.
앵무새의 머리, 몸중심, 꼬리, 발 위치를 이용해 Y 스켈레톤을 구성하고, θ =H–BC–F, θ₂=T–BC–F 두 개의 각도를 계산하였다. 각도 변화 범위와 지속 시간을 기준으로 행동을 구분했으며, 이 각도 변화는 개체의 행동 전환의 주요 지표로 작용하였다.
Resting은 θ 변화가 ±5° 이내이며, 몸 중심의 이동이 바운딩박스 면적 대비 x·y축 방향으로 각각 5% 이하인 상태가 5초 이상 지속될 때로 정의하였다. 먹이섭취는 앵무새가 먹이통 영역에 위치할 때 θ₁값이 20° 이상 감소한 경우로 정의하였고, 물 마시기는 동일한 기준에서 물통 영역에 위치할 때로 구분하였다.
앵무새의 기지개 판단기준은 다음과 같다. 스켈레톤 기반 각도 분석 대신, 날개 객체의 탐지 여부를 기준으로 직접 판별한다. 앵무새가 횃대에 위치한 상태에서, 아래 표에 제시된 날개 라벨 중 하나 이상의 조건이 탐지될 경우, 해당 프레임은 기지개 동작으로 판단된다. 이 조건은 일반적으로 앵무새의 날개 펼침 동작에 해당하며, 각도 분석을 생략한 채 즉시 기지개 이벤트로 등록된다. 시스템은 조건이 충족될 때마다 기지개 횟수를 +1하여 누적 기록한다. 표 2는 앵무새가 기지개를 키는 3가지 대표 이미지이다.
| Category | Left wing | Right wing | Both wings |
|---|---|---|---|
| Detection condition | Wing-left object detection | Wing-right object detection | Wing-both object detection |
| Image |
|
|
|
이를 통해 반복적인 섭취 동작을 정밀하게 식별함으로써 실제 행동 빈도와 패턴을 정확히 반영할 수 있다. 이러한 기준은 장기적인 모니터링에서 앵무새의 섭식 및 음수 습관을 체계적으로 기록하는 데 중요한 역할을 한다.
본 연구의 객체 탐지 기반 접근법의 적합성을 검증하기 위해 동일한 영상 데이터를 이용하여 Keypoint 방식과 비교하였다. Keypoint방식은 머리·꼬리·발 위치를 점 형태로 예측하였으나, 앵무새가 먹이통이나 물통에 머리를 넣는 장면에서는 부리 좌표가 가림으로 자주 소실되어 추적 연속성이 떨어졌다. 반면 제안한 모델은 머리가 가려진 상황에서도 학습된 형상 정보를 통해 머리 객체를 안정적으로 탐지하였으며, 스켈레톤 연결이 유지되었다. 부리점의 이동 좌표 판단은 앵무새의 행동 판단에 가장 중요하다.
그림 8은 두 방식의 동일 시점 비교 결과를 나타낸 것이다. 이처럼 제안 모델은 부리나 머리처럼 작고 불분명한 부위에서도 더 높은 신뢰도와 일관된 분포를 나타내어 Keypoint 방식보다 안정적이었다. 결과적으로 Keypoint 방식은 작고 흐릿한 점을 찾는 데 약하고 객체 탐지 방식은 형태가 명확한 전체 부위를 인식하는 데 강한 특성을 보였다.
본 실험은 앵무새의 정량적 행동 평가를 위해, 사육 환경의 통제 및 행동 발생 조건의 일관성 확보를 우선적으로 고려하였다. 평가에 사용된 앵무새는 총 4개체로, 동일한 실험실 환경에서 1개월간 사육되었으며, 이 기간 동안 온도 습도, 광주기, 급이 및 급수 조건은 모두 일정하게 유지되었다. 먹이, 간식, 물을 동일하게 급이하였고, 각 개체는 매일 2회(총 2시간) 실내 방사 산책 시간을 제공받았다.
측정은 모두 동일한 조건하에 수행되었고, 측정된 행동은 자발적으로 발생한 움직임만을 대상으로 하였다. 특히 먹이섭취, 물 마시기, 휴식, 기지개 행동은 탐지 모델을 통해 자동 판별되었으며, 개체별로 하루 동안의 행동 발생 횟수 또는 누적 시간은 정량적으로 기록되었다. 이러한 수치는 행동 탐지 시스템 성능을 평가하는 기초 자료로 활용되었다.
평가를 위한 앵무새 개체는 아래 표 3에 제시된 총 4개 개체로 실험을 진행하였으며, 오전 산책시간 이후로부터, 오후 산책시간 이전까지인 오전 8시 30분부터 오후 7시까지를 앵무새들의새장 내 활동시간으로 간주하여 11시간 30분 동안의 행동을 촬영·판독하였다. 앵무새 주요 부위 탐지 기반 행동 자동 분류 시스템을 제안하고, 성능을 평가하기 위해 아래와 같이 세 가지 분석 기준을 설정하였다.
| Individual/subspecies | Parrot1/pineapple conure | Parrot1/blue cinnamon conure |
|---|---|---|
| Image |
|
|
| Individual/subspecies | Parrot1/yellow-side conure | Parrot1/yellow-side conure |
| Image |
|
|
행동 판단의 핵심인 부위 탐지 정확도(Class-wise detection accuracy)를 정량 분석하였다. 제안 시스템은 앵무새 탐지 후 박스 내부에서 머리, 꼬리, 다리, 날개를 재탐지하여 행동을 판단한다. 이 부위 탐지 성능은 행동 분류 정확도에 직결된다. 이를 위해 Confusion Matrix, Normalized Confusion Matrix, Precision, Recall, mAP@0.5, mAP@0.5–0.95 등을 이용해 클래스별 탐지 정확도와 오탐 경향을 평가하였다. 특히 날개는 기지개 판단의 shortcut 조건으로, 정밀도와 재현율의 균형이 중요하다.
행동 분류 조건별 탐지 성능을 평가하였다. 시스템은 각도 로직과 위치 세그멘테이션을 이용해 ‘휴식’, ‘먹이 섭취’, ‘물 마시기’, ‘기지개’ 네 행동을 자동 분류한다. 테스트 영상의 Ground Truth와 시스템 결과를 비교해 행동별 탐지 정확도(TP/GT 비율) 를 계산하였다.
임계값 기반 판단 성능을 분석하였다. Confidence threshold에 따른 판단 신뢰도와 정확도 변화를 평가하기 위해 F1-Confidence Curve 및 Precision-Recall Curve를 확인하였다. 이를 통해 클래스별 confidence score에 따른 예측 안정성을 파악하고, 최적 임계값을 도출하였다.
결론적으로 본 연구는 행동 결과 정확도를 넘어 Foot, Head, Tail, Wing 탐지 성능을 핵심 지표로 삼고, 이를 행동 분류 성능과 연계해 시스템의 실효성과 적용 가능성을 정량 입증하였다.
본 연구는 앵무새가 먹이·물을 섭취할 때 Parrot, Head, Tail, Foot을 안정적으로 탐지하는지를 평가하였다. Head–Tail–Foot 동시 탐지와 자세 분석 가능성에 중점을 두었으며, 200 epoch 학습 결과 Fig. 9에서 보이듯 성능 지표가 초반 급상승 후 안정적으로 수렴했다. 모든 클래스가 Precision–Recall 0.995 이상, mAP@0.5 0.995를 기록해 탐지 임계값 변화에도 높은 정밀도와 재현율을 확인하였다.
그림 9에서 모든 클래스가 높은 정확도를 보였고, 다리와 꼬리가 노출되고 bounding box가 명확할 때 탐지가 안정적임을 보여준다. YOLO 모델은 행동 인식 전처리로 충분한 정밀도와 일관성을 확보해 스켈레톤 분석, 각도 계산, 행동 분류에 활용 가능하다.
그림 10은 YOLO 기반 모델의 클래스별 예측 결과와 실제 라벨 간 대응 관계를 나타낸 Confusion Matrix로, 부위별 오탐경향 확인을 위해 제시하였다.
그림 11에서 날개는 precision은 높지만 recall이 일부 구간 감소했으며, 이는 날개가 펼쳐진 상태에서만 탐지되는 특성을 반영한다. 반면 앵무새와 머리는 전 구간에서 높은 정밀도와 재현율을 유지해 날개와 함께 탐지 조건을 충족함을 확인하였다.
그림 12에서와 같이 날개 탐지 Confusion Matrix에서도 같은 경향이 보였다. Wing 클래스는 0.93의 정탐률을 기록했고, Parrot와 Head도 각각 0.98, 1.00의 높은 정확도를 보였다. Foot과 Tail은 background 혼동 비율이 높았으며 탐지 결과가 거의 없었다. 이는 해당 조건에서 Foot과 Tail 탐지는 평가 지표가 될 수 없고, Parrot–Head–Wing 간 탐지 관계가 성능의 핵심 기준임을 보여준다.
앞서 설명한 그림 2~4는 앵무새의 행동 패턴 탐지 과정을 단계별로 도식화한 것으로, 각 과정의 입력·출력 및 처리 절차를 나타낸 것인데, 이 그림들의 실험 결과를 표 4에 제시하였으며, 해당 표는 행동 판단 프로세스의 성능 평가를 요약한 것이다. 이를 통해 제안된 행동 분석 절차의 구조와 유효성을 설명하였다.
| Behavior metric | Parrot1 | Parrot2 | Parrot3 | Parrot4 | ||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|
| AI detection | VI | Relative error (%) | AI detection | VI | Relative error (%) | AI detection | VI | Relative error (%) | AI detection | VI | Relative error (%) | |
| Eating count | 391 | 385 | 391/385 (+1.5%) |
325 | 332 | 325/332 (–2.1%) |
325 | 318 | 325/318 (+2.2%) |
388 | 380 | 388/380 (+2.1%) |
| Drinking count | 87 | 92 | 87/92 (–5.4%) |
105 | 99 | 105/99 (+6.1%) |
69 | 72 | 69/72 (–4.2%) |
76 | 70 | 76/70 (+8.6%) |
| Resting time(min) | 241 | 238 | 241/238 (+1.3%) |
190 | 192 | 190/192 ( –1%) |
52 | 55 | 52/55 (–5.5%) |
28 | 26 | 28/26 (+7.7%) |
| Stretching count(5days) | 40 | 38 | 38/40 (–5.0%) |
31 | 30 | 31/30 (+3.3%) |
12 | 12 | 12/12 (0%) |
0 | 0 | 0% |
표 4는 각 개체별 먹이섭취 횟수, 물 마신 횟수, 휴식 누적시간, 기지개 횟수를 나타낸다. 이 수치는 일반적인 사육 환경에서 앵무새의 평균 행동량을 가늠할 수 있는 지표로 활용될 수 있다.
AI 기반 탐지와 육안 관찰(VI) 결과를 비교한 바, 먹이 섭취와 물 마시기 행동의 상대오차(Relative error)는 각각 ±2.2% 및 ±8.6% 이내로, 전반적으로 높은 일치도를 보였다. 반면 휴식 시간은 최대 약 4분의 차이를 보여 양호한 수준이었으며, 기지개는 발생 횟수가 적어 편차가 상대적으로 크게 나타나 5일간의 누적 데이터를 사용하였다. 전반적으로 섭식, 음수, 휴식, 기지개 행동 모두에서 AI 탐지 결과가 육안 관찰을 충분히 대체할 수 있음을 확인하였다.
기존의 인간 중심 Keypoint 기반 자세 추정 기법이 조류, 특히 앵무새와 같이 깃털에 가려 관절의 구분이 어려운 조류나 빠른 움직임을 가진 동물에게는 적합하지 않다는 한계를 극복하기 위해, YOLO 기반의 객체 탐지 기술을 활용한 새로운 자세 분석 시스템을 제안하였다.
앵무새 전체부위를 탐지한 후, 관심 영역(ROI) 내에서 세부 부위인 머리, 꼬리, 발, 날개를 재탐지하고 이를 기반으로 Y자 형태의 스켈레톤을 구성하여 중심점 각도 변화량을 정량적으로 계산하였다. 이를 통해 먹이 섭취, 물 마시기, 휴식, 기지개 펴기 등 주요 행동의 분류를 자동으로 할 수 있었다.
행동 분석에는 각도 기반 분석과 RGB 세그멘테이션을 결합하여 위치 정보를 고려한 판별 로직을 구성하였으며, 특히 닐개 탐지는 각도 분석 없이 shortcut rule로 처리함으로써 다양한 행동 판단이 가능하게 되었다.
실험결과, YOLO 기반 모델은 Parrot, Head, Tail, Foot 클래스에 대해 높은 정밀도인 mAP@0.5 ≈ 0.995를 기록했으며, Wing 탐지 역시 구조적인 제약 조건에서 유의미한 탐지성능을 보여주었다.
또한 실제 행동 이벤트인 먹기, 마시기, 휴식, 기지개에 대해 Ground Truth 기반 평가에서 높은 탐지 정확도를 입증했으며, 실시간 처리가 가능한 경량화된 구조로 구성되어 다양한 반려조류 행동 모니터링 시스템으로 확장 가능성을 보여주었다. 결과적으로 본 연구는 객체 탐지 기반의 다단계 분석 구조가 조류의 미세한 행동 변화를 실시간으로 정량화할 수 있는 효과적인 수단임을 실증하였다.
Table 4에서 제시된 3번과 4번 개체는 상대적으로 좁은 공간에서 상대적으로 스트레스를 더 받는 양상을 보였으며, 휴식 상태를 유지하지 못하고 지속적인 이동을 나타냈다. 이러한 경향은 환경적 제약에 따른 스트레스 반응으로 해석될 수 있으며, 향후 휴식 시간이나 기지개 동작의 탐지 결과를 기반으로 개체의 스트레스 수준을 정량적으로 평가하는 지표로 활용될 가능성을 시사한다.
본 연구는 제한된 규모의 데이터셋을 기반으로 수행되었으며, 이는 딥러닝 모델의 일반화 성능을 완전히 보장하기 어렵다는 한계가 있다. 향후 연구에서는 데이터 수집 대상을 확대하고, 다양한 조명·시점 조건을 포함한 데이터 증강(Data augmentation) 기법을 적용함으로써 모델의 재현성과 적용 범위를 강화할 예정이다.
향후 연구에서는 본 시스템을 새장 내부에 국한하지 않고, 가정에서 흔히 이루어지는 새장 밖 환경으로 확장할 필요가 있다. 예를 들어, 새가 자주 머무는 횃대 옆이나 먹이통·물통 근처에 카메라를 설치하여 섭식 및 음수 행동을 장기적으로 관찰하고, 장난감 놀이, 그루밍, 의사소통, 짝짓기 및 구애, 깃털 손질, 비행, 스트레스 회피 행동 등 다양한 활동을 포괄적으로 분석할 수 있을 것이다.
또한 본 연구는 단일 케이지 환경과 코뉴어의 한 아종만을 대상으로 수행되었기 때문에, 종 다양성이나 케이지 구조, 조도·배경 변화에 따른 일반화 검증에는 한계가 있다. 향후에는 다양한 종과 환경 조건을 포함한 추가 실험을 통해 모델의 적용 범위를 확장하고, 사회적 상호작용이나 이상행동 등 동적 행동을 포함한 데이터 확장이 필요하다. 더불어 행동 데이터와 실제 건강·스트레스 지표 간의 상관성을 검증하는 방법론을 도입함으로써 연구의 응용적 의의를 강화할 수 있을 것으로 판단된다.
이러한 확장은 단순한 행동 감지를 넘어 반려조류의 웰빙 평가, 행동학적 풍부화 효과 검증, 그리고 장기적으로는 자율형 스마트 케이지 및 AI 기반 행동 교정 시스템으로의 발전 가능성을 제시한다.
본 연구는 한성대학교 학술연구비 지원과제임
| 1. | KB Financial Group Management Research Institute, "2021 Korea Pet Report", pp. 16-17, 2021. |
| 2. | M. F. Arshad, F. Ahmed, F. Nonnis, C. Tamponi, A. Scala, and A. Varcasia, "Artificial intelligence and companion animals: Perspectives on digital healthcare for dogs, cats, and pet ownership," Research in Veterinary Science, Vol. 193, Sep. 2025.![]() |
| 3. | U. Aragunde-Kohl, J. Gómez-Galán, C. Lázaro-Pérez, and J. Á. Martínez-López, "Interaction and emotional connection with pets: A descriptive analysis from Puerto Rico", Animals, Vol. 10, No. 11, pp. 2136-2151, Nov. 2020.![]() |
| 4. | D. H. Kang, S. E. Song, E. S. Shin, K. B. Lee, and K. H. Ro, "Smart parrot cage with stress-reducing features", Asia-Pacific Journal of Convergent Research Interchange, Vol. 11, No. 3, pp. 843-859, Mar. 2025.![]() |
| 5. | D. H. Kang, S. E. Song, E. S. Shin, and K. H. Ro, "A study on the psychological well-being and stress spectrum of pet parrots", Asia-Pacific Journal of Convergent Research Interchange, Vol. 10, No. 2, pp. 305-326, Feb. 2024.![]() |
| 6. | A. U. Luescher, "Manual of Parrot Behavior", Blackwell Publishing, pp. 59-62, 2006.![]() |
| 7. | J. O. Wirminghaus, C. T. Downs, C. T. Symes, E. Dempster, and M. R. Perrin, "Vocalisations and behaviours of the Cape Parrot Poicephalus robustus (Psittaciformes: Psittacidae)", Durban Museum Novitates, Vol. 25, pp. 12-17, 2000.![]() |
| 8. | B. W. Ritchie, G. J. Harrison, and L. R. Harrison, Avian Medicine: Principles and Application, Lake Worth, FL: Wingers Publishing, pp. 96-108, 1994. |
| 9. | W. Jang and E. C. Lee, "Multi-class parrot image classification including subspecies with similar appearance", Biology, Vol. 10, No. 11, pp. 1140-1154, Nov. 2021.![]() |
| 10. | T. Wu, X. Luo, and Q. Xu, "A new skeleton based flying bird detection method for low-altitude air traffic management", Chinese Journal of Aeronautics, Vol. 31, No. 11, pp. 2149-2164, Nov. 2018.![]() |
| 11. | Y. K. Kang, H. Y. Kang, and D. S. Weon, "Human skeleton keypoints based fall detection using GRU", Journal of the Korea Academia-Industrial Cooperation Society, Vol. 22, No. 2, pp. 127-133, 2021.![]() |
| 12. | R. He, X. Wang, H. Chen, and C. Liu, "VHR-BirdPose: Vision transformer-based HRNet for bird pose estimation with attention mechanism", Electronics, Vol. 12, No. 17, pp. 3643-3657, Jul. 2023.![]() |
| 13. | C. Fang, Z. Wu, H. Zheng, J. Yang, C. Ma, and T. Zhang, "MCP: Multi-chicken pose estimation based on transfer learning", Animals, Vol. 14, No. 12, pp. 1774-1786, Jun. 2024.![]() |
| 14. | Z.-W. Sun, Z.-X. Hua, H.-C. Li, Z.-P. Qi, X. Li, Y. Li, and J.-C. Zhang, "FBD-SV-2024: Flying bird object detection dataset in surveillance video", Scientific Data, Vol. 12, No. 1, pp. 530-540, Mar. 2025.![]() |
| 15. | R. Yayla, "A prototype study on YOLOv10-based bird gesture recognition", International Journal of Multidisciplinary Studies and Innovative Technologies, Vol. 8, No. 2, pp. 76-80, 2024.![]() |
2019년 8월 : 경희대학교 경영학과(경영학사)
2022년 8월 : 경희대학교 6차산업경영학과(경영학석사)
2023년 3월 ~ 현재 : 한성대학교 스마트융합컨설팅학과 공학박사과정
2020년 12월 ~ 현재 : 이데아아이주식회사 선임연구원
관심분야 : 인공지능, AI융합제품, 동물행동학
1998년 2월 : 건국대학교 축산가공학과(농학사)
2004년 2월 : 건국대학교 축산경영학과(축산경영학석사)
2025년 8월 : 전북대학교 축산학과(농학박사)
1997년 12월 ~ 2000년 9월 : 양지화학(주) TS팀 주임
2000년 12월 ~ 2001년 7월 : 인터베트코리아 TS팀 TSR
2001년 7월 ~ 2003년 1월 : 메리알코리아 육종사업팀 TS팀 팀장
2003년 2월~ 2007년 3월 : 네오바이오(주) 본부장 수석연구원
2007년 5월 ~ 2023년 6월 : (주) 더 매니지먼트 앤 컴퍼니 수석컨설턴트
2020년 11월 ~ 현재 : 이데아아이주식회사 대표이사
관심분야 : 동물행동학, 가금육종학, AI융합제품, ICT컨텐츠
1995년 2월 : 고려대학교 산업공학과(공학사)
1997년 2월 : 고려대학교 산업공학과(공학석사)
2001년 8월 : 고려대학교 산업공학과(공학박사)
2001년 10월 ~ 2002년 10월 : Ecole des Mines de Paris (France), Post-Doc
2003년 2월 ~ 2006년 6월 : 한국전자통신연구원 연구원
2006년 7월 ~ 2007년 8월 : 한국항공우주연구원 선임연구원
2007년 9월 ~ 현재 : 한성대학교 교수
2025년 11월 ~ 현재 : 이데아아이주식회사 연구소장
관심분야 : 인공지능, 스마트모빌리티