Korean Institute of Information Technology

Home

The Journal of Korean Institute of Information Technology - Vol. 21 , No. 9

[ Article ]
The Journal of Korean Institute of Information Technology - Vol. 21, No. 9, pp. 153-160
Abbreviation: Journal of KIIT
ISSN: 1598-8619 (Print) 2093-7571 (Online)
Print publication date 30 Sep 2023
Received 11 Jul 2023 Revised 30 Jul 2023 Accepted 02 Aug 2023
DOI: https://doi.org/10.14801/jkiit.2023.21.9.153

3차원 데이터의 의미적 분할을 위한 가중치가 부여된 희소 컨볼루션 네트워크 모델
안정수* ; 조영래**
*연세대학교 미래캠퍼스 전산학과 석사과정
**연세대학교 미래캠퍼스 소프트웨어학부 부교수(교신저자)

Weighted Sparse Convolutional Networks for Semantic Segmentation of 3-Dimensional Data
Jung Su An* ; Young-Rae Cho**
Correspondence to : Young-Rae Cho Division of Software, Yonsei University Mirae Campus, Korea Tel.: +83-33-760-2245, Email: youngcho@yonsei.ac.kr

Funding Information ▼

초록

최근 의료, 자율 주행, 영상 처리 분야에서 3차원 데이터를 활용하여 높은 정확도의 의미적 분할 및 분류를 위한 딥러닝 모델 개발이 활발하게 이루어지고 있다. 3차원 사물을 표현하기 위하여 포인트 클라우드 방식이 가장 널리 사용되는데, 연속적인 포인트 클라우드에 합성곱 적용을 위하여 복셀화를 통한 규칙성 부여가 요구된다. 본 연구에서는 원본 포인트 클라우드 데이터를 손상시키지 않으면서 복셀화를 수행하기 위한 복셀-그리드 층과 이를 포함한 WSCN(Weighted Sparse Convolutional Network) 모델을 제안한다. 이 모델은 가중치가 부여된 그리드의 합성곱을 통하여 지역적인 위치 정보 학습에 용이하다. 벤치마크 데이터를 이용하여 분할 정확도를 비교 평가하기 위한 실험을 진행하였고, 그 결과 WSCN 모델이 유사한 이전 모델보다 더 우수한 분할 성능을 보였다.

Abstract

Recently, there has been significant progress in developing deep learning models for 3-dimensional data, which achieve high accuracy in semantic segmentation and classification in the fields of medical, autonomous driving, and image processing. Point cloud representation is most widely used to express 3-dimensional objects; however, applying convolution to continuous point clouds requires regularization through voxelization. In this study, we propose voxel-grid layers and a Weighted Sparse Convolutional Network(WSCN) model to perform voxelization while preserving the original point cloud data. This model effectively captures local spatial information through the convolution of weighted grids. Experiments were conducted to evaluate the segmentation accuracy using a benchmark dataset, and the results demonstrate that the WSCN model outperforms previous models.


Keywords: semantic segmentation, sparse convolution, point clouds, voxel-grid, 3-D data

Ⅰ. 서 론

최근 3차원 이미지 데이터를 생성할 수 있는 라이다(LiDAR) 센서, RGB-D 카메라와 같은 하드웨어의 발전에 따라 이를 통해 수집된 데이터를 딥러닝 기반으로 분석하는 연구가 확대되고 있다. 특히, 3차원 데이터의 의미적 분할(Semantic segmentation)과 분류(Classification)를 통한 3차원 물체 탐지 및 시각 인식 기술이 빠르게 발전하고 있다. 따라서, 이러한 기술을 활용하는 의료, 자율 주행, 영상처리, 가상/증강 현실 등 다양한 분야에서 우수한 성능을 도출하는 모델이 제안되고 있다[1][2]. 3차원 사물을 표현하는 대표적인 방식으로 포인트 클라우드(Point cloud)[3], 메쉬(Mesh)[4], 복셀(Voxel)[5]이 존재하지만, 컴퓨팅 자원을 절약하고 처리 속도를 증가시키기 위하여 포인트 클라우드로 표현된 데이터가 가장 널리 사용되고 있다. 또한, 포인트 클라우드는 목적에 따라 다른 형태로 변환이 용이하다.

하지만, 점과 점 사이의 거리가 일정하지 않은 연속적인 점들의 집합으로 구성된 포인트 클라우드는 기존 2차원 데이터에서 주로 사용하는 이산적인 합성곱(Convolution)을 적용하기에 적합하지 않다. 따라서, 이를 해결하기 위해 연속적인 데이터를 그리드(Grid) 형태로 클러스터링(Clustering)하는 방법이 제안되었다. 이 방법은 일정한 간격으로 구역을 나누고 포인트 클라우드를 그 구역들에 정사영한 후, 일정 포인트 이상의 그리드 만으로 데이터를 구성한다. 결국 이 방법은 포인트 클라우드를 복셀화 할 때 널리 사용된다.

최근 복셀화 처리된 다차원 데이터의 분석을 위하여 희소 행렬을 활용한 합성곱(Sparse convolution) 방법이 제안되었다[6]. 이 방법은 복셀로 표현된 이미지를 희소 행렬로 분해하여 이를 밀집 행렬과의 연산을 통해 다양한 관점에서의 특징을 추출하고, 병렬연산을 통해 연산 시간을 단축할 수 있다. 하지만, 포인트 클라우드를 복셀화하여 이러한 합성곱에 적용할 때, 원본 데이터 손실이 크다는 단점이 있다.

이러한 이전 연구를 기반으로, 본 연구에서는 포인트 클라우드의 특징을 우수한 성능으로 추출하는 WSCN(Weighted Sparse Convolutional Network) 모델을 제안한다. WSCN 모델은 복셀-그리드 층을 통하여 이산적인 합성곱이 가능하도록 데이터 형태를 변환한다. 그리드 형태로 구성된 특징 행렬을 합성곱에 적용하여 연산에 사용되는 행렬의 크기를 줄이면서 원본 데이터의 모든 포인트에 대해 합성곱을 적용할 수 있다. 이때 복셀-그리드 층의 행렬의 경우, 대부분의 그리드 영역에 투영된 포인트의 수가 작다. 즉, 대부분 영역에서 0의 값을 갖는 희소 행렬에 대한 처리를 위하여 각 그리드에 포함된 포인트의 개수를 기준으로 가중치를 계산한다. 결국, 계산된 가중치는 각 그리드가 얼마나 중요한지 알려주는 지표의 역할을 한다. WSCN 모델은 그 가중치를 기반으로 합성곱을 진행한다. 본 연구가 기여한 두 가지 핵심 사항은 다음과 같다.

· 포인트 클라우드 방식의 3차원 데이터에 대한 효율적인 처리를 위해 복셀-그리드 층을 설계하였다. 이 층은 지역적인 위치 정보를 학습하기 용이하고 위치 기반으로 병렬연산이 가능하여 대규모 포인트 클라우드 처리에 적합하다.

· 포인트 클라우드 방식의 3차원 데이터에 대한 의미적 분할 성능 향상을 위하여 WSCN 모델을 제안하였다. 이 모델은 3차원 이미지 이해를 위한 백본 역할을 할 수 있다.


Ⅱ. 관련 연구
2.1 포인트 클라우드 기반 모델
2.1.1 PointNet

PointNet[7]은 규칙성이 없는 3차원 공간에서의 포인트 클라우드를 원본 그대로 사용하여 학습하는 모델로 포인트의 순서에 상관없이 출력이 동일하게 유지되도록 하는 대칭함수를 활용한다. 특징 추출을 위하여 내부 모듈 중에서 T-Net을 사용한 아핀 변환(Affine transformation)행렬을 적용한다. 이때 입력값은 포인트 클라우드 형식이기 때문에 복셀 또는 메쉬 형태로 구성된 데이터에 비해 비교적 적은 하드웨어 자원으로도 대규모 데이터의 합성곱을 진행할 수 있다.

PointNet은 각 포인트의 좌표 값이 가지는 지역적인 특징과 전역적인 특징을 모두 고려할 수 있도록 설계되었고, 이때 특징 행렬은 MLP(Multi-layer Perceptron)와 MaxPooling을 병합하여 구성하였다.

2.1.2 PointCNN

PointCNN[8]도 규칙성이 없는 3차원 포인트 클라우드를 학습하는 CNN(Convolutional Neural Network) 기반의 모델로 X-transformation 방법을 이용하여 포인트 클라우드에 규칙성을 부여한다. 이는 서로 다른 위치의 포인트가 같은 순서로 연산되는 것을 방지하고, 또한 순열 연산을 통해 포인트를 재정렬하여 순서에 의한 민감도 문제를 해결한다. PointCNN은 주변 포인트와의 상호작용을 고려하는 합성곱을 통하여 지역적인 특징을 추출하고, 포인트 클라우드의 지역적인 구조와 특징을 유지하면서 데이터 차원의 변환이 가능하다.

2.2 복셀 기반 모델
2.2.1 복셀-그리드

포인트 클라우드 또는 메쉬 형식의 불규칙한 형상에 규칙성을 부여하기 위한 복셀화 작업으로 복셀-그리드[9]가 널리 사용된다. 복셀-그리드 형식의 이점은 일정한 크기의 각 그리드에 포함된 포인트를 하나의 복셀로 변환할 경우 데이터 수가 줄어 연산량이 감소한다. 하지만, 복셀화는 포인트 클라우드 원본 데이터를 이용하는 경우보다 정확성이 떨어질 가능성이 높다. 또한, 복셀화를 진행할 때 대규모 데이터 처리에 필요한 컴퓨팅 자원이 요구된다. 따라서, 복셀-그리드를 사용할 경우 포인트 클라우드를 활용한 전처리 방법이 요구된다.

2.2.2 MinkowskiNet

MinkowskiNet[10]은 포인트 클라우드를 복셀-그리드 형식으로 변환하여 처리하는 모델로, 분석 속도를 높이고 메모리 사용량을 최소화하기 위해 신경망을 압축하는 방법 중 희소 합성곱(Sparse convolution) 방식을 채택하였는데, 이는 특징 행렬에서 유의미한 값이 존재하는 요소에만 접근하는 방법이다. 이 방법은 밀집한 텐서에서 일부 영역만 추출해 희소 텐서로 변환하고 이에 대한 합성곱을 진행하여 특징을 추출한다. 결국 희소 텐서는 중요한 지점에서만 합성곱을 진행하여 기존의 밀집 텐서보다 연산량을 감소시키는 이점이 있다.


Ⅲ. 3차원 데이터 분석 모델
3.1 복셀-그리드 층 설계

앞서 소개한 MinkowskiNet 모델은 고차원 이미지를 희소 행렬로 치환한 특징 행렬에 대해 이산적인 합성곱을 진행하였다. 하지만, 3차원의 연속적인 이미지 데이터에 합성곱을 적용하기 적합하지 않다. 결국 연속적인 데이터에 순서를 부여하는 방법으로 이를 해결해야 한다.

본 연구에서는 3차원 이미지에서의 포인트 클라우드를 이산적인 데이터로 표현하기 위해 복셀-그리드 방식을 사용하였다. 기존의 복셀-그리드 방식은 포인트 클라우드를 단순히 복셀화하는 과정으로 활용되지만, 원본 이미지의 특징이 일부 소실될 가능성이 존재한다. 따라서, 포인트 클라우드를 3차원 공간에 투영하여 각 그리드에 할당하였고, 원본 손실 없이 그리드 기반으로 이산적인 행렬을 이용한 합성곱 진행을 용이하게 하였다.

3.2 WSCN 모델

일반적인 희소 행렬 연산은 포인트 클라우드 데이터를 복셀-그리드 방식으로 투영한 행렬에 그대로 적용하기에 적합하지 않다. 왜냐하면, 각 그리드의 정보, 즉 그리드에 포함된 포인트의 개수에 큰 차이가 존재하기 때문이다. 이 경우 일반적인 합성곱 방식은 일정 개수 이상의 포인트를 가진 그리드를 제외하고 나머지 그리드에 0의 값을 할당하여 학습한다.

이에 반하여, 본 연구에서 제안된 WSCN 모델은 포인트의 개수에 따라 각 그리드에 0과 1 사이의 값으로 가중치를 부여함으로써 그리드의 중요도를 결정한다.

WSCN 모델의 각 그리드에 대한 가중치는 그리드가 포함하는 포인트의 비율로 계산한다.

Wi=niN(1) 

여기서 Wi는 i번째 그리드의 가중치, ni는 i번째 그리드가 포함하는 포인트의 개수, N은 가장 많은 포인트를 포함하는 그리드의 포인트 개수를 의미한다. 또한, 정규화를 통하여 각 그리드의 가중치 분포를 보정하였다.

제안한 모델의 구조는 이산적인 합성곱과 같지만기존의 희소 합성곱(Sparse convolution)과는 달리 각 그리드에 가중치를 부여하여 개별적으로 어느 위치에 합성곱을 진행할지 따로 설정할 필요가 없다. 또한, 그리드 방식으로 포인트의 클러스터링을 진행하므로 데이터의 특징을 축소하는데 적합하다. 그림 1은 WSCN 모델의 구조도를 보여준다. WSCN 모델은 전체적으로 이미지 특징 추출에 용이한 UNet 구조를 따르며, 특징을 추출하는 합성곱 층(Convolution layer)과 추출한 특징 맵을 원본과 같은 크기로 변환하기 위한 역합성곱 층(De-convolution layer)으로 구성된다. 합성곱 층과 역합성곱 층을 포함한 각 층의 크기는 [256 128 64 32 64 128 256]로 구성된다.


Fig. 1. 
Architecture of the WSCN model


Ⅳ. 실험 결과
4.1 데이터 및 실험 환경

제안한 WSCN 모델의 의미론적 분할(semantic segmentation)에 대한 유효성을 검증하기 위하여 널리 사용되는 공개 데이터 세트인 S3DIS[11]를 이용하여 비교 실험을 수행하였다. S3DIS 데이터 세트는 6개의 구역에 271개 방의 이미지를 포함하고 바닥, 벽, 책장, 소파 등 총 13개의 클래스로 주석이 달려있다. 본 실험에서는 S3DIS 5구역을 테스트 및 검증 데이터로, 그 외 1, 2, 3, 4, 6구역을 훈련 데이터로 사용하였다. 검증 및 훈련 데이터 개수는 각각 68개, 203개의 원본 데이터를 사용하였지만, 훈련 데이터는 데이터 증강으로 30배 많은 양의 데이터를 사용하였다.

본 실험을 위해서 GPU는 GeForce RTX 3090 24GB 4-way를 사용하였고, CPU는 i9-10980XE를 사용하였다. 소프트웨어는 Ubuntu 20.04.3, cuda 11.5, pytorch 1.13를 사용하여 실험을 진행하였다.

4.2 평가 지표

모델의 의미적 분할 및 분류 성능을 평가하기 위한 지표로 손실(Loss), mAcc(mean Accuracy), 및 mIoU(mean Intersection over Union)를 사용하였다. 첫째, 손실은 교차 엔트로피(Cross entropy)의 개념을 이용하여 계산된다.

Loss =-m=1Mc=1CwcLm,clogAm,c(2) 

여기서 M은 데이터 셀의 개수, C는 클래스의 개수, L은 0 또는 1의 값을 갖는 이진수 형의 실제값(Ground-truth), A는 실제값의 확률을 의미한다. 또한, wc는 클래스 c의 가중치로 본 실험에서는 사용하지 않고 모든 클래스에 대해 1의 값을 할당하였다.

둘째, mAcc는 모든 클래스에 대한 분류 정확도의 평균을 의미하며, 각 클래스의 분류 정확도는 클래스를 표현하는 총 포인트 개수에 대해 올바르게 예측된 포인트 개수의 비율로 정의된다.

mAcc=1k+1i=0kPiij=0kPij(3) 

여기서 Pii는 클래스 i에 포함된 포인트 중에서 올바르게 분류된 포인트 개수를 나타내고, Pij는 클래스 i에 포함된 포인트 중에서 클래스 j로 분류된 포인트 개수를 의미한다.

마지막으로, IoU는 각 클래스의 분류 정밀도를 평가하는 기준이다.

IoUi=Piij=0kPij+j=0kPji-Pii(4) 

위의 식에서 확인할 수 있듯이, i번째 클래스에 포함된 포인트의 집합과 i번째 클래스로 예측된 포인트의 집합 간의 교집합을 합집합으로 나눠 계산된다. mIoU는 모든 클래스에 대한 IoU의 평균을 의미한다.

mIoU=1k+1i=0kIoUi(5) 
4.3 실험 결과

본 연구에서 제안한 WSCN 모델에 대한 3차원 데이터의 의미적 분할 검증 결과를 이전 모델의 결과와 비교 분석하였다. WSCN의 옵티마이저는 SGD를 사용하였고 초기 학습률(Learning rate)은 0.1, 모멘텀 계수는 0.9, 학습 시 가중치 감소 값은 0.0001로 설정하였다. 배치는 32, 훈련 횟수(Epoch)는 100으로 설정하여 훈련을 진행하였다.

표 1에서 확인할 수 있듯이, WSCN이 가장 우수한 성능을 보였고, MinkowskiNet이 다음으로 우수한 성능을 보였다. 전반적으로, 비교한 모델의 실험 결과는 mAcc와 mIoU 지표 값에 대해 유사한 패턴을 보였다. 정량적인 측면에서 WSCN은 MinkowskiNet과 비교하여 작은 양의 성능 향상을 이루었지만, 표 2에서 볼 수 있듯이 각 클래스의 mIoU 지표 값에 대해서는 클래스 간 편차가 줄어든 것을 확인할 수 있다. 즉, MinkowskiNet이 정확히 분할하지 못한 창문(Window), 소파(Sofa) 등의 객체를 WSCN은 비교적 높은 정확도로 분할하는 것을 알 수 있다. 따라서 WSCN은 이전 모델이 추출하지 못한 특징을 추출한다고 예측할 수 있다.

Table 1. 
Performance comparison of semantic segmentation models
method mAcc mIoU
PointNet 0.490 0.411
PointCNN 0.639 0.573
MinkowskiNet 0.717 0.654
WSCN 0.720 0.656

Table 2. 
Comparison of mIoU values of semantic segmentation models for each class
method ceiling floor wall beam column window door table chair sofa bookcase board clutter
PointNet 88.8 97.3 69.8 0.1 3.9 46.3 10.8 59.0 52.6 5.9 40.3 26.4 33.2
PointCNN 92.3 98.2 79.4 0.0 17.6 22.8 62.1 74.4 80.6 31.7 66.7 62.1 56.7
MinkowskiNet 91.8 98.7 86.2 0.0 34.1 48.9 62.4 81.6 89.8 47.2 74.9 74.4 58.6
WSCN 90.2 97.3 81.9 0.1 23.5 60.1 60.4 89.9 78.5 73.8 74.9 70.0 52.2

또한, WSCN과 MinkowskiNet 사이에 유사한 정확도를 가진 1개의 데이터에 대해 훈련 속도를 비교했을 때 WSCN이 0.061초, MinkowskiNet이 0.16초로 2.5배 이상 차이가 나는 것을 확인할 수 있었다.

그림 2는 WSCN의 훈련 및 검증 과정에서 훈련 횟수에 따른 손실, mAcc, mIoU 값의 변화를 보여준다. 훈련 과정에서 손실 값은 일정하게 수렴하는 것을 확인할 수 있었지만, 검증 과정에서는 손실에 대한 노이즈가 많이 발생함을 확인할 수 있다.


Fig. 2. 
Training and validation performance changes with increasing epochs of the WSCN model

또한, 훈련 과정에서의 손실 값은 대략 0.1까지 떨어졌지만, 검증 과정에서는 0.6에서 수렴하여, 데이터의 다양한 변화를 통한 훈련 데이터 증강에도 불구하고 과적합(overfitting)이 생겼음을 알 수 있다. mAcc와 mIoU 값의 변화를 보면, 훈련 횟수 증가에 따라 완만히 상승하다가 53번째에서 급상승하는 것을 확인할 수 있는데, 이는 정확도가 임계값 이하로 큰 변동이 없을 때 스케쥴러가 학습률을 변화시켜 정확도가 급상승하는 것으로 예측할 수 있다.

그림 3은 WSCN 모델의 예측 결과를 시각화하여 원본 데이터와의 차이를 보여준다. 전반적으로, 특정 객체를 제외하고는 우수한 분할 성능을 보이는 것을 알 수 있다. 의자, 책상, 천장 등의 객체는 정확히 분할되었지만, 벽과의 경계가 선명하지 않은 칠판 또는 두 객체가 서로 겹쳐서 그 경계가 모호한 책상다리와 의자 등에서 다소 분할 정확도가 떨어졌다.


Fig. 3. 
Visualization of the S3DIS original data and the semantic segmentation results by the WSCN model

결과적으로, 전역적인 특징은 정확히 추출하는 반면에 지역적인 특징 추출에는 다소 부족한 결과를 보였다.


Ⅴ. 결 론

본 연구에서 제안한 WSCN 모델은 3차원 공간에서 포인트 클라우드 형식의 데이터에 이산적인 합성곱 적용이 적합하지 않은 문제를 복셀-그리드 방식과 가중치가 부여된 희소 합성곱을 통하여 개선하였다. 따라서, 본 연구의 핵심은 포인트 클라우드의 연속적인 데이터를 이산적으로 변환하는 과정이라고 할 수 있다. 유사한 CNN 기반의 이전 모델들과 성능을 비교 평가하기 위하여 3차원 이미지 벤치마킹 데이터로 널리 활용되는 S3DIS 데이터를 이용하여 분할 정확도를 측정하였다. 실험 결과, 본 연구에서 제안한 WSCN 모델이 가장 우수한 분할 성능을 보였다. 특히, 이전 모델이 정확히 분할하지 못한 객체를 WSCN 모델은 비교적 높은 정확도로 분할하였다.

하지만, 표 2를 통하여 클래스 간의 분할 정확도 편차는 여전히 큰 것을 확인할 수 있다. 이 결과는 각 클래스의 이미지 특징이 선명한 객체와 모호한 객체에 따라 구분된다. 분할 정확도의 개선을 위해 특징이 모호한 객체들로부터 정확한 특징을 추출하고 지역적 분할 능력을 향상할 수 있는 모델의 개발이 필수적으로 요구된다. 이에 따라, 현재 2차원 또는 3차원 이미지의 의미적 분할 및 분류 분야에서는 Transformer 모델과 같은 이미지 특징 추출 개선을 위한 모델로 연구가 확장되고 있다. 또한, 최근에는 모델의 경량화로 실제 일상생활에서 쉽게 적용할 수 있으면서 안정성과 정확도가 확보된 모델 개발 전략이 요구된다.


Acknowledgments

본 연구는 2023년도 과학기술정보통신부의 재원으로 한국연구재단 기초연구사업(중견연구)의 지원(2021R1A2C1011946)과 2023년도 교육부의 재원으로 한국연구재단 지자체-대학 협력기반 지역혁신사업의 지원(2022RIS-005)을 받아 수행되었음


References
1. B.-H. Choi, J.-J. Lee, Y.-U. Choi, H.-T. Han, and H. Y. Lee, "Semantic Segmentation of Multiple Sclerosis Lesion using Residual 3D U-Net", Journal of KIIT, Vol. 19, No. 11, pp. 81-90, Nov. 2021.
2. J. S. An and Y.-R. Cho, "Performance Comparison of 3D Segmentation Models Based on Point Cloud and Mesh for Dental Scan Data", KIISE Transactions on Computing Practices, Vol. 29, No. 4, pp. 158-165, Apr. 2023.
3. Y. Xie, J. Tian, and X. X. Zhu, "Linking Points with Labels in 3D: A Review of Point Cloud Semantic Segmentation", IEEE Geoscience and Remote Sensing Magazine, Vol. 8, No. 4, pp. 38-59, Dec. 2020.
4. M. Rouhani, F. Lafarge, and P. Alliez, "Semantic segmentation of 3D textured meshes for urban scene analysis", ISPRS Journal of Photogrammetry and Remote Sensing, Vol. 123, pp. 124-139, Jan. 2017.
5. D. Maturana and S. Scherer, "VoxNet: A 3D Convolutional Neural Network for real-time object recognition", In proceedings of 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS), Hamburg, Germany, pp. 922-928, Sep. 2015.
6. I. S. Duff, A. M. Erisman, and J. K. Reid, "Direct Methods for Sparse Matrices(2nd edn)", Oxford Academic, Jan. 2017.
7. R. Q. Charles, H. Su, M. Kaichun, and L. J. Guibas, "PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation", In Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, USA, pp. 77-85, Jul. 2017.
8. Y. Li, R. Bu, M. Sun, W. Wu, X. Di, and B. Chen, "PointCNN: convolution on X-transformed points", In Proceedings of the 32nd International Conference on Neural Information Processing Systems (NIPS), pp. 828-838, Dec. 2018.
9. H. Liu, Y. Zhang, L. Lei, H. Xie, Y. Li, and S. Sun, "Hierarchical Optimization of 3D Point Cloud Registration", Sensors, Vol. 20, No. 23, p. 6999, Dec. 2020.
10. C. Choy, J. Gwak, and S. Savarese, "4D Spatio-Temporal ConvNets: Minkowski Convolutional Neural Networks", In Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, CA, USA, pp. 3070-3079, Jun. 2019.
11. I. Armeni, O. Sener, A. R. Zamir, H. Jiang, I. Brilakis, M. Fischer, and S. Savarese, "3D Semantic Parsing of Large-Scale Indoor Spaces", In Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV, USA, pp. 1534-1543, Jun. 2016.

저자소개
안 정 수 (Jung Su An)

2023년 2월 : 연세대학교 미래캠퍼스 컴퓨터공학과(공학사)

2023년 3월 ~ 현재 : 연세대학교 미래캠퍼스 전산학과 석사과정

관심분야 : 의료영상처리, 3D 컴퓨터 비전, 인공지능

조 영 래 (Young-Rae Cho)

1994년 2월 : 연세대학교 공과대학(공학사)

2003년 12월 : 일리노이주립대학교 컴퓨터공학 졸업(공학석사)

2009년 6월 : 뉴욕주립대학교 컴퓨터공학 졸업(공학박사)

2009년 8월 ~ 2019년 12월 : 베일러대학교 컴퓨터공학과 부교수

2020년 3월 ~ 현재 : 연세대학교 미래캠퍼스 소프트웨어학부/디지털헬스케어학부 부교수

관심분야 : 바이오인포매틱스, 데이터마이닝, 인공지능