Home | JKIIT Archives | About the JKIIT | E-SUBMISSON |
Sorry.
You are not permitted to access the full text of articles.
If you have any questions about permissions,
please contact the Society.
죄송합니다.
회원님은 논문 이용 권한이 없습니다.
권한 관련 문의는 학회로 부탁 드립니다.
[ Article ] | |
The Journal of Korean Institute of Information Technology - Vol. 22, No. 12, pp. 19-27 | |
Abbreviation: Journal of KIIT | |
ISSN: 1598-8619 (Print) 2093-7571 (Online) | |
Print publication date 31 Dec 2024 | |
Received 06 Nov 2024 Revised 04 Dec 2024 Accepted 07 Dec 2024 | |
DOI: https://doi.org/10.14801/jkiit.2024.22.12.19 | |
3D LiDAR 환경에서의 동적 객체 탐지 개선을 위한 평면 탐지 및 프로젝션 기반 필터 | |
이민재*
; 배지호*
; 최상민*
; 이수원*
| |
*경상국립대학교 컴퓨터공학과 | |
*경상국립대학교 컴퓨터공학과(공동교신저자) | |
Plane Detection and Projection-based Filter for Enhanced Moving Object Segmentation in 3D LiDAR Environments | |
Minjae Lee*
; Jiho Bae*
; Sang-Min Choi*
; Suwon Lee*
| |
Correspondence to : Sang-Min Choi and Suwon Lee Dept. of Computer Science and Engineering, Gyeongsang National University, 501, Jinju-daero, Jinju-si, Gyeongsangnam-do Tel.: 82+55-772-1384 / 82+55-772-1394 Email: jerassi@gnu.ac.kr / leesuwon@gnu.ac.kr | |
최근 자율주행 기술의 빠른 발전에 따라 3D LiDAR 데이터를 활용한 동적 객체 분할(MOS, Moving Object Segmentation)의 정확성 확보가 자율주행 시스템에서 중요한 역할을 하고 있다. 자율주행 시스템은 주변 환경을 정확히 인식하고 객체의 위치와 움직임을 신속하게 판단해야 하므로, 동적 객체 분할의 정확도는 운전자 및 동승자의 안전과 직결된다. 그러나 기존 연구에서는 그림자와 같은 비동적 객체가 동적 객체로 잘못 인식되는 문제가 발생하며, 이는 자율주행 시스템의 오판으로 이어질 수 있다. 본 연구에서는 평면 탐지 기법과 프로젝션 거리 분석을 통해 3D LiDAR 환경에서 발생하는 그림자 영역과 같은 비동적 객체를 효과적으로 제거하는 방법을 제안한다. 제안된 방법은 자율주행 시스템이 주변 환경을 보다 신뢰성 있게 인식할 수 있도록 하여, 자율주행의 안전성과 안정성을 강화하는 데 기여할 것으로 기대된다.
With the rapid advancement of autonomous driving technology, ensuring the accuracy of Moving Object Segmentation(MOS) using 3D LiDAR data has become a critical component in autonomous systems. Autonomous vehicles must accurately perceive their surroundings and quickly assess the position and motion of objects, making the precision of MOS essential for the safety of drivers and passengers. However, previous studies have identified issues where static objects, such as shadowed areas, are misclassified as moving objects, potentially leading to system misjudgments. This study proposes a method that leverages plane detection and projection distance analysis to effectively eliminate static objects, such as shadows, in 3D LiDAR environments. The proposed approach is expected to enhance the reliability of environmental perception in autonomous driving systems, ultimately contributing to the safety and robustness of autonomous vehicles.
Keywords: moving object segmentation, plane detection, projection distance analysis, 3D LiDAR |
자율주행 기술은 현대 사회에서 점차 현실로 다가오며 큰 주목을 받고 있는 분야이다. 자율주행 차량은 인지, 판단, 제어의 세 가지 주요 과정을 통해 사람의 개입 없이 주행을 수행한다. 인지 기술은 자율주행 시스템이 도로 상황, 주변 차량, 보행자 및 장애물 등을 실시간으로 인식하고 분석할 수 있게 함으로써 안전한 주행을 가능하게 하며, 특히 주변 환경을 정확히 파악하는 인지 과정이 올바르게 선행되어야 판단 및 제어 과정까지 올바르게 동작할 수 있을 것이다.
인지 기술 중에서도 동적 객체 분할(MOS, Moving Object Segmentation)은 자율주행 시스템의 안전성에 중요한 역할을 한다. MOS는 움직이는 객체를 주어진 데이터로부터 분리하여 자율주행 시스템이 정확한 경로를 계획하고 잠재적인 충돌을 피할 수 있도록 돕는다. 만약 MOS가 정확하게 수행되지 않으면, 시스템은 움직이지 않는 객체를 동적으로 잘못 인식하거나 반대로 움직이는 객체를 인식하지 못할 수 있어 교통사고로 이어질 위험이 커진다. 따라서 MOS의 성능 향상은 자율주행 차량의 안전성을 높이는 데 중요한 과제로 여겨지고 있다.
LiDAR(Light Detection and Ranging) 센서는 자율주행 차량이 주변 환경을 3D로 파악할 수 있게 해주는 필수적인 장비이다. LiDAR는 빛을 이용해 주변 사물의 위치와 형태를 측정하는 원리로, 매우 정확한 포인트 클라우드 데이터를 제공한다. 그러나 빛을 기반으로 하기 때문에 그림자(Shadow) 현상이 발생할 수밖에 없으며, 이로 인해 LiDAR가 인식한 객체의 그림자 부분이 잘못된 정보로 취급되는 경우가 생긴다. 구체적으로, 그림 1(a)에서 물체가 이동하면 그 물체에 의해 생긴 그림자 영역 역시 함께 움직이는 것으로 보이며, 이러한 그림자가 동적 객체로 잘못 인식될 수 있다. 예를 들어 차량이 이동할 때 차량에 의해 가려진 영역이 그림자로 나타나면서 실제로는 움직이지 않는 부분이지만 MOS 알고리즘에 의해 동적으로 분류될 수 있다. 이러한 오탐지는 자율주행 시스템의 정확한 주행 경로 설계와 안전성 확보에 부정적인 영향을 미칠 수 있다.
본 연구에서는 LiDAR 데이터에서 발생하는 그림자와 같은 비동적 요소들이 동적 객체로 오인되는 문제를 해결하기 위해 평면 탐지 기법을 도입하여 그림 1(d)와 같이 MOS의 정확성을 개선하는 방법을 제안한다. 이를 통해 자율주행 시스템의 인지 성능을 강화하고, 보다 안전하고 신뢰할 수 있는 자율주행 환경을 조성하고자 한다. 본 논문에서는 데이터 셋으로 KITTI[1]의 velodyne 데이터와 Semantic KITTI[2]의 레이블(Label) 데이터를 활용하였다.
자율주행을 위해 2차원(2D, 2-Dimension) 이미지 데이터 및 3차원(3D, 3-Dimension) 데이터를 활용한 연구[3]-[5]는 지속적으로 발전해 오고 있다. 특히, 동적 객체 분할 분야에서는 연속된 2D 프레임을 기반으로 픽셀 단위의 움직임을 식별하여 배경과 구분하는 연구가 주로 이루어졌으며, 이는 카메라 기반의 자율주행 차량에 널리 활용된다. 반면, 3D 동적 객체 분할은 깊이 정보까지 활용할 수 있는 LiDAR 센서를 사용함으로써 객체의 위치와 형태를 보다 정확하게 파악할 수 있는 장점이 있다.
LMNet[6]은 LiDAR 스캔을 범위 이미지(Range image)로 변환하고, 컨볼루션 신경망(CNN, Convolutional Neural Network) 기반 U-Net 아키텍처를 활용하여 실시간으로 동적 객체를 분할하는 방법을 제안하였다.
현재 프레임과 이전 프레임 간의 잔차 이미지(Residual images)를 결합하여 프레임별 움직이는 객체를 식별한다. 이후, 2D 이미지에서 선택된 동적 객체 픽셀을 다시 3D 좌표로 복원하는 방식을 사용한다. LMNet은 일반적인 LiDAR 센서의 주사율(10Hz)을 초과하는 속도로 작동할 수 있어 실시간성이 보장되지만, 그림자 영역에서 잘못된 객체 분할이 발생할 수 있다는 한계가 있다.
4DMOS[7]는 일정 시간의 윈도우에 걸친 LiDAR 스캔을 4차원(4D, 4-Dimension) 시퀀스로 변환하고, Sparse 4D CNN을 활용하여 효율적이고 빠르게 공간-시간적 특징을 추출하여 동적 객체를 분할하는 방법을 제시하였다. 이 방식은 이진 베이즈 필터를 사용해 예측 결과를 융합하여 지속적인 개선이 가능하다. 4DMOS는 실시간 처리가 가능하다는 장점을 가지고 있지만, 복잡한 장면에서는 여전히 잘못된 객체 분할이 발생할 수 있다.
MapMOS[8]는 LiDAR 데이터를 기반으로 과거 모든 스캔을 통합하여 공간 신뢰도 맵(Volumetric belief map)을 구축하고, 이를 기반으로 동적 객체 분할을 수행하는 방법을 제안했다. 이 방법은 확률적 융합 기법과 베이즈 필터를 통해 초기 예측의 오류를 교정하고 매우 높은 정확도의 동적 객체 분할 결과를 얻을 수 있다. 그러나 높은 정확도를 얻어 좋은 맵을 구축하는 대신, 실시간성이 잃게 되어 즉각적인 자율주행 시스템에 적용하기에는 한계가 있다. 따라서, 이 방식은 실시간 처리보다는 디지털 트윈 등 후처리 기반의 태스크에 더 적합하다고 볼 수 있다.
LiDAR 데이터를 이용한 동적 객체 분할 과정에서 그림자는 동적 객체와 비동적 객체의 경계를 혼란스럽게 만들며 종종 잘못된 분류의 원인이 된다. 차량이나 사람 같은 동적 객체가 이동할 때, 이들에 의해 발생하는 그림자 역시 이동하여 MOS 모델에 의해 동적 객체로 오인될 수 있다. 이러한 문제는 그림자 영역이 대개 지표면에서 발생한다는 점에 주목하여, RANSAC(Random Sample Consensus)[9] 알고리즘을 이용한 평면 탐지 기법을 도입함으로써 해결할 수 있다.
RANSAC 기반의 평면 탐지 기법은 LiDAR 데이터에서 지표면을 효과적으로 추출하는 역할을 한다. 이를 통해 지표면에 속하는 비동적 요소들, 예를 들어 그림자나 평평한 노면 등은 비동적 객체로 구분할 수 있으며, 이를 통해 불필요한 그림자 영역을 제거할 수 있다. 그림 1(b)는 RANSAC 평면 탐지를 수행한 결과로, 지표면을 빨간색으로, 나머지 영역을 흰색으로 표시한 예시를 나타낸다. 이를 통해 그림자와 같이 지표면에 속하는 비동적 요소들을 MOS 결과에서 배제함으로써, 동적 객체만을 더욱 정밀하게 분리할 수 있다.
평면 탐지 결과를 바탕으로 비동적 요소를 효과적으로 제거할 수 있지만, 이 과정에서 불필요하게 동적 객체의 일부를 제거하는 문제도 발생할 수 있다. 예를 들어, 그림 1(c)의 노란색 원으로 표시한 것과 같이, 자동차나 자전거의 바퀴, 사람의 발 등이 지표면에 근접해 있는 경우 평면 탐지 결과와 혼동되어 필터링 과정에서 동적 객체의 일부가 잘못 제거되는 현상이 발생할 수 있다. 이를 방지하기 위해 단순한 이진 필터링이 아닌 의미론적 정보(Semantic mask)를 활용하여 지표면 라벨을 가진 요소들만 제거하는 방법을 고려할 수 있다. 그러나 이 경우 새로운 딥러닝 모델의 설계와 학습이 필요하며, 자원이 많이 소모된다는 단점이 있다.
본 논문에서는 보다 직관적인 대안으로, 프로젝션 거리 기반 필터를 제안한다. 그림 2는 평면 탐지를 통해 추출된 프레임별 평면 모델을 바탕으로 정분류된 포인트 클라우드(하늘색)와 오분류된 포인트 클라우드(빨간색)를 해당 평면에 프로젝션 한 후 시각화한 것이다. 그림에서 초록색으로 표시된 부분은 제거해야 할 빨간색 점을 프로젝션 한 것으로, 그림자 영역을 나타내며, 제거해야할 대상이다. 반면, 노란색으로 표시된 부분은 하늘색 점을 프로젝션 한 것으로, 옳게 탐지되었으므로 유지해야 할 영역이다.
프로젝션 거리 기반 필터의 핵심 아이디어는 초록색 점 근처에 노란색 포인트가 존재할 경우, 초록색 점의 근원인 빨간색 점을 유지하고, 그렇지 않다면 해당 빨간색 점을 제거함으로써 더욱 정교한 필터링을 진행할 수 있다.
필터링 과정을 위해 빨강색 포인트 클라우드를 R = {r1, ..., rn}, 초록색 포인트 클라우드를 G = {g1, ..., gn}, 하늘색 포인트 클라우드를 S = {s1, ..., sm}, 노랑색 포인트 클라우드를 Y = {y1, ..., yn} (∀ri, gi, sj, yj ∊ R3) 로 정의하고, 다음과 같은 단계로 필터링을 수행한다.
(1) |
(2) |
식 (1)을 사용하여 초록색 포인트(gi)와 노란색 포인트(yi) 사이의 거리(dij)를 계산하고, 식 (2)를 사용하여 특정 임계값(δ) 이상인 거리에 위치한 빨간색 포인트 클라우드(ri)를 흰색(∅)으로 변경(제거)하며, 그 외의 경우에는 하늘색(S)으로 변경(유지)하는 방식으로 오탐지 영역을 정제한다. 이 방법을 통해 지표면과 그림자 영역을 효과적으로 구분하고 동적 객체 분할의 정확도를 높일 수 있게된다.
거리를 측정하는 과정에서 단순히 초록색 포인트(gi)와 노란색 포인트(yi) 사이의 거리(dij)를 측정할 때 모든 경우의 수에 대해 조사하게 된다면 O(nm)의 시간복잡도를 갖게 되므로 n과 m이 커진다면 매우 비효율적일 것이다. 이를 해결하기 위해 KD-Tree[10] 기반의 근접 이웃(Nearest Neighbors)을 이용하였다. 식 (3)에 따라 O(n·logm)으로 KD-Tree를 구성하고 O(m·logm)으로 탐색함으로서 효율성을 크게 개선할 수 있었다.
(3) |
본 논문에서는 식 (4)에 따른 Intersection over Union(IoU) 지표를 사용하여 성능을 평가하였으며, 실험에는 Semantic KITTI의 벨로다인 시퀀스 8번 데이터를 활용하였다. IoU는 TP, FP, FN의 합에 대한 TP의 비율로 계산되며, 여기서 TP(True Positive)는 실제로 Moving으로 라벨링된 점들 중 모델이 Moving으로 정확히 예측한 점의 개수, FP(False Positive)는 실제로 Static인 점을 잘못 예측하여 Moving으로 분류한 점의 개수, FN(False Negative)는 실제로 Moving인 점을 Static으로 잘못 예측한 점의 개수를 의미한다. 또한, TN(True Negative)는 실제로 Static인 점을 모델이 Static으로 정확히 예측한 점의 개수를 나타낸다. 최적의 거리 임계값 δ를 구하기 위해 δ 값을 변화시키며 IoU 변화를 분석하였으며, 그림 3은 δ 값에 따른 IoU 변화를 그래프로 나타낸 것이며, 최적의 IoU는 δ = 0.2 또는 δ = 0.3에서 달성되는 것을 확인하였다. 이후 실험에서는 δ = 0.2를 기준으로 다양한 방법에 필터를 적용하여 성능을 비교 분석하였다.
(4) |
표 1는 다양한 MOS 방법론에 따른 IoU 성능을 비교한 결과를 보여준다. 여기에는 (i) LMNet 방법 별 성능, (ii) LMNet에 제안한 필터를 적용한 성능, (iii) 4DMOS의 성능, (iv) 4DMOS에 필터를 적용한 성능이 포함된다. LMNet의 저자가 제안한 방법(N=1, N=8, N=8+Semantics)과 4DMOS에 모두 필터를 적용한 결과, 유의미한 성능 개선이 나타났다. 특히, LMNet의 N=8 모델의 경우 기존에 정보가 부족해 직접 학습한 후 필터를 적용한 결과 IoU가 62.6%를 기록하였다. 이는 필터를 적용하지 않은 N=8+Semantics 모델(62.5%)보다 높은 수치이다. 또한, N=8+Semantics 모델에 필터를 적용했을 때는 2.6%p 증가하였고, N=1 모델에서는 8.7%p로 가장 큰 상승폭을 보였다. 4DMOS 모델에도 필터를 적용한 결과 6.3%p의 성능 향상이 확인되었다.
Methods | IoU(%) |
---|---|
LMNet(N=1) | 52.0 |
LMNet(N=1) + proposed filter | 60.7 |
LMNet(N=8) + proposed filter | 62.6 |
LMNet(N=8+Semantics) | 62.5 |
LMNet(N=8+Semantics) + proposed filter | 65.1 |
4DMOS | 65.2 |
4DMOS + proposed filter | 71.5 |
제안된 필터의 처리 단계는 다음과 같다. 먼저, 매 LiDAR 스캔에서 점-라벨 쌍을 불러오고, 라벨을 기반으로 동적 점과 비동적 점을 분류한다. 이후, 모든 점을 활용하여 평면을 탐지하고, 탐지된 평면에 속하는 동적 점과 그렇지 않은 점을 구분한다. 구분된 동적 점은 해당 평면에 투영되며, 마지막으로 과도한 필터링을 방지하기 위해 4.3에서 제시된 방식을 적용하여 최종 점의 라벨을 결정한다.
그림 4는 제안된 필터의 각 처리 단계별 실행 시간을 분석한 결과를 시각화한 것이다. 해당 분석은 Semantic KITTI의 시퀀스 8번 데이터를 사용하였으며, 가시성을 위해 전체 4070개 프레임 중 초기 500개의 프레임만을 그림에 나타냈다. 실제로 전체 프레임에서도 유사한 경향이 관찰되었다. 그림에서는 각 처리 단계를 서로 다른 색상으로 구분하여, 첫 번째 단계인 ‘Load Points and Labels’부터 마지막 단계인 ‘Update Colors’까지의 소요 시간을 비교하였다. 특히, 각 단계의 누적 시간은 분홍색으로 표시하였다.
분석 결과, 대부분의 처리 단계는 매우 짧은 시간 내에 완료되었으나, ‘3. 평면 분할(Plane segmentation)’ 단계에서 상대적으로 긴 시간이 소요되며 약 0.075초로 측정되었다. 누적 실행 시간은 프레임마다 다소 변동이 있으며, 이는 매 LiDAR 스캔마다 점의 개수가 달라지기 때문으로 분석된다. 평균 누적 실행 시간과 1표준편차는 진회색 영역으로 표시되었으며, 평균 누적 시간은 10Hz LiDAR 장비의 주사율에 해당하는 0.1초에 근접한 값을 보인다.
또한, 그림 4의 연회색 영역은 상용 Velodyne LiDAR 장비의 작동 주사율 범위를 나타내며, 5Hz에서 20Hz 사이에 분포하고 있다. 실험에 사용된 장비는 10Hz(0.1초/스캔)로 작동하는 LiDAR이며, 제안된 필터는 이러한 주사율 내에서 적절히 동작하는 것을 확인할 수 있다.
본 연구에서 제안한 ‘평면 탐지 후 프로젝션 거리 기반 필터 기법’은 LiDAR 데이터에서 대부분의 그림자 영역이 지표면에 발생한다는 점을 활용하여 동적 객체 분할에서 발생하는 오탐지 문제를 줄이는 데 효과적임을 실험을 통해 입증하였다. 지표면에서 발생하는 그림자는 RANSAC 기반의 평면 탐지를 통해 대부분 필터링할 수 있었으며, 이를 통해 자율주행 시스템의 동적 객체 인식 성능이 개선되었음을 확인할 수 있었다. 그러나 실제 환경에서는 지표면 외에도 건물의 벽, 나무와 같은 다양한 비지표면 요소에서도 그림자가 발생할 수 있으며, 이 경우 기존 평면 탐지 기법만으로는 완벽히 필터링하기 어려운 한계가 있다.
예를 들어, 그림 5는 (i) 지표면이 아닌 영역에 발생한 그림자와 (ii) 평면 탐지로 필터링되지 않아 오탐지된 포인트 클라우드를 보여준다. (i)의 경우 평면 탐지를 통한 기존 방법론으로는 해당 그림자를 제거하기 어려워 새로운 접근 방식을 필요로 한다. (ii)의 경우 평면 탐지 과정에서 해당 부분이 평면으로 인식되지 않아 발생한 문제로, 이로 인해 지표면에 해당하는 일부 포인트가 오분류되며 동적 객체로 잘못 인식되었다. 이러한 한계는 그림 6에서 더욱 명확히 나타나는데, 이는 그림 5에 등장하는 자전거 운전자 2명을 측면에서 바라본 장면으로, RANSAC 기반의 평면 모델이 실제 지표면보다 기울어진 상태로 추론된 결과를 보여준다. RANSAC 알고리즘의 무작위적 샘플링 특성으로 인해 평면이 실제 지표면과 다르게 추정될 경우, 노란색 평면처럼 잘못 모델링되며, 그 결과 필터링이 되어야 할 파란색 점들이 남아 동적 객체로 잘못 분류되는 문제가 발생할 수 있다. 이는 평면 탐지 기법의 무작위성으로 인한 한계로, 추후 MOS 분야의 발전을 위해 더 정교한 개선 방안이 필요할 것으로 예상된다.
본 연구는 3D LiDAR 데이터를 활용한 동적 객체 분할 과정에서 발생하는 오탐지 문제를 해결하기 위해 평면 탐지 기법을 제안하였다. 기존의 MOS 모델인 LMNet은 그림자나 지표면과 같은 비동적 요소를 동적 객체로 잘못 인식하는 문제가 있어, 자율주행 시스템의 인식 성능과 안전성에 큰 영향을 미쳤다. 이러한 문제를 해결하기 위해 RANSAC 기반의 평면 탐지 기법을 도입하여 비동적 요소를 효과적으로 분리해냄으로써, 불필요한 그림자 영역과 지표면이 동적 객체로 오인되는 문제를 최소화할 수 있었다. 더불어, 평면 탐지와 수식 기반 필터링 기법을 결합하여 동적 객체와 비동적 객체를 정교하게 구분함으로써 MOS 성능을 향상시켰다.
실험 결과, 본 논문에서 제안한 방법은 기존 LMNet 모델 대비 IoU 지표에서 큰 향상을 나타냈으며, 특히 거리 임계값(δ)을 조정함으로써 최적의 성능을 도출할 수 있음을 확인하였다. 최적의 임계값을 적용하여 성능을 비교한 결과, 제안한 필터링 기법이 자율주행 시스템의 인지 성능을 크게 개선할 수 있음을 실험적으로 입증하였다.
그러나 본 연구의 평면 탐지 기법은 건물의 벽이나 나무와 같이 지표면이 아닌 물체의 그림자까지 완벽하게 제거하지는 못하는 한계가 있다. 또한, RANSAC 기반의 평면 추론 과정에서 무작위성으로 인해 평면이 부정확하게 추정될 경우 오탐지가 발생할 수 있음을 확인하였다. 이러한 문제를 해결하기 위해서는 RANSAC의 평면 추론 과정을 보다 정밀하게 다룰 수 있는 추가적인 연구가 필요하며, 다양한 비지표면 그림자 요소에 대응할 수 있는 고도화된 필터링 기법의 개발이 요구된다.
1. | A. Geiger, P. Lenz, and R. Urtasun, "Are we ready for autonomous driving? The KITTI vision benchmark suite", 2012 IEEE Conference on Computer Vision and Pattern Recognition, Providence, RI, USA, pp. 3354-3361, Jun. 2012. |
2. | J. Behley, M. Garbade, A. Milioto, J. Quenzel, S. Behnke, C. Stachniss, and J. Gall, "SemanticKITTI: A dataset for semantic scene understanding of LiDAR sequences", Proceedings of the IEEE/CVF International Conference on Computer Vision, Seoul, Korea, pp. 9297-9307, Oct. 2019. |
3. | J. Bae, M. Lee, U. Kim, and S. Lee, "SLAM-Based Illegal Parking Detection System", SIGGRAPH Asia 2024 Posters, No. 45, pp. 1-2, Dec. 2024. |
4. | D. Feng, C. Haase-Schütz, L. Rosenbaum, H. Hertlein, C. Glaeser, F. Timm, and K. Dietmayer, "Deep multi-modal object detection and semantic segmentation for autonomous driving: Datasets, methods, and challenges", IEEE Transactions on Intelligent Transportation Systems, Vol. 22, No. 3, pp. 1341-1360, Mar. 2021. |
5. | G. Zamanakos, L. Tsochatzidis, A. Amanatiadis, and I. Pratikakis, "A comprehensive survey of LiDAR-based 3D object detection methods with deep learning for autonomous driving", Computers & Graphics, Vol. 99, pp. 153-181, Oct. 2021. |
6. | X. Chen, S. Li, B. Mersch, L. Wiesmann, J. Gall, J. Behley, and C. Stachniss, "Moving object segmentation in 3D LiDAR data: A learning-based approach exploiting sequential data", IEEE Robotics and Automation Letters, Vol. 6, No. 4, pp. 6529-6536, Oct. 2021. |
7. | B. Mersch, X. Chen, I. Vizzo, L. Nunes, J. Behley, and C. Stachniss, "Receding moving object segmentation in 3D LiDAR data using sparse 4D convolutions", IEEE Robotics and Automation Letters, Vol. 7, No. 3, pp. 7503-7510, Jul. 2022. |
8. | B. Mersch, T. Guadagnino, X. Chen, I. Vizzo, J. Behley, and C. Stachniss, "Building volumetric beliefs for dynamic environments exploiting map-based moving object segmentation", IEEE Robotics and Automation Letters, Vol. 8, No. 8, pp. 5180-5187, Aug. 2023. |
9. | M. A. Fischler and R. C. Bolles, "Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography", Readings in Computer Vision, pp. 726-740, 1987. |
10. | J. H. Friedman, J. L. Bentley, and R. A. Finkel, "An algorithm for finding best matches in logarithmic expected time", ACM Transactions on Mathematical Software (TOMS), Vol. 3, No. 3, pp. 209-226, Sep. 1977. |
2020년 3월 ~ 현재 : 경상국립대학교 컴퓨터공학과 학부과정
관심분야 : 동시적 위치추정 및 지도작성(SLAM), 자율주행
2019년 3월 ~ 현재 : 경상국립대학교 컴퓨터공학과 학부과정
관심분야 : 인공지능, 컴퓨터비전, 증강현실
2015년 2월 : 연세대학교 컴퓨터과학과(공학박사)
2018년 3월 : 연세대학교 컴퓨터과학과 박사후연구원
2022년 3월 ~ 현재 : 경상국립대학교 컴퓨터공학과 조교수
관심분야 : 추천시스템, 알고리즘
2012년 2월 : 한국과학기술원 전산학과(공학석사)
2017년 2월 : 한국과학기술원 전산학과(공학박사)
2018년 3월 ~ 현재 : 경상국립대학교 컴퓨터공학과 부교수
관심분야 : 증강현실, 컴퓨터비전, 인간-컴퓨터 상호작용