UNIST, 손-물체 상호작용 복원 AI 개발
울산과학기술원(UNIST) 연구진이 개발한 ‘BIGS’ 기법을 사용해 다양한 시점에서 손-물체 상호작용을 복원한 결과./UNIST
국내 연구진이 두 손으로 낯선 물체를 조작하는 2차원 장면을 3차원으로 복원하는 인공지능(AI) 기술을 개발했다. 양손과 의료기구가 뒤엉킨 모의 수술 장면도 정확하게 증강현실(AR) 화면에 재현해 낼 수 있게 됐다.
백승렬 울산과학기술원(UNIST) 인공지능대학원 교수 연구진은 단일 RGB 영상만으로 양손과 처음 보는 기구의 복잡한 상호작용을 3차원으로 실시간 시각화할 수 있는 AI 모델 ‘BIGS(Bimanual Interaction 3D Gaussian Splatting)’를 개발했다고 9일 밝혔다. RGB는 적색, 녹색, 청색을 이용해 색을 표현하는 모델이다.
AI는 카메라로 촬영된 2차원 데이터만 입력받기 때문에 손과 물체의 실제 위치나 입체적인 형태를 파악하려면 이를 3차원으로 다시 복원하는 과정이 필요하다. 기존 기술은 한 손만 인식하거나 사전에 스캔된 물체만 대응할 수 있는 탓에, AR이나 가상현실(VR) 기술에서 현실감 있는 상호작용 장면을 재현해 내는 데 한계가 있었다.
연구진이 개발한 BIGS는 손이 가려지거나 일부만 보이는 상황에서도 전체 형상을 안정적으로 예측할 수 있으며, 처음 보는 물체도 학습된 시각 정보를 통해 보이지 않는 부분까지 자연스럽게 그려낸다. 또 깊이 센서나 여러 각도의 카메라 없이 단 한 대의 카메라로 찍은 단일 RGB 영상만으로 복원할 수 있어 현장에서 쉽게 적용할 수 있다.
이 AI 모델은 3차원 가우시안 스플래팅(Gaussaina Splatting)을 기반으로 한다. 가우시안 스플래팅은 사물의 형상을 퍼지는 점 구름 형태로 표현하는 방식으로, 손과 물체가 만나는 접촉면을 자연스럽게 복원할 수 있다. 이 방식은 손이 겹치거나 일부가 가려진 상황에서는 전체 형상을 추정하기 어렵지만, 모든 손을 기준이 되는 손의 구조에 맞춰 정렬하는 방식을 이용해 문제를 해결했다.
실제 국제 데이터세트를 활용한 실험 결과, BIGS는 손의 자세, 물체의 형상, 두 손과 물체 간의 접촉 정보의 복원은 물론 화면을 재현하는 렌더링 품질면에서도 기존 기술보다 우수한 성능을 보였다.
백승렬 교수는 “이번 연구는 향후 VR, AR, 로봇 제어, 원격 수술 시뮬레이션 등 다양한 분야에서 실시간 상호작용 복원 기술로 활용될 것으로 기대한다”고 말했다.
연구 결과는 오는 6월 11일부터 5일간 미국에서 열리는 컴퓨터 비전 분야의 학회 CVPR(Conference on Computer Vision and Pattern Recognition) 2025에 채택됐다.
- Copyright ⓒ 조선비즈 & Chosun.com -
Copyright © 조선비즈. 무단전재 및 재배포 금지.
매주 일요일 밤 0시에 랭킹을 초기화합니다.