가상현실 3D 오브젝트와의 상호작용을 위한 머신러닝 기반 손 제스처 인식 라이브러리 기술 연구
본 과제는 HTC 바이브, 오큘러스 리프트 같은 VR 환경에서 손 제스처로 3차원 객체를 자연스럽게 조작하는 내추럴 유저 인터페이스를 제공하는 연구임.
연구 목표는 머신러닝 기반 손 제스처 인식 라이브러리를 개발하여 가상현실 콘텐츠의 직관적 상호작용을 가능하게 하는 데 있음. 핵심 연구 내용은 정적 제스처·동적 제스처 유형 정의, 센서에 독립적인 추상적 손 메타포 구조 정의, 가려짐·주변 환경에 강인한 딥러닝 인식 알고리즘 개발, GPU 병렬 처리로 성능 가속화임. 기대 효과는 VR 콘텐츠 제작 여건 개선 및 게임·교육·미디어 아트 등 응용 확대로 확산됨.
가상현실 3D 오브젝트와의 상호작용을 위한 머신러닝 기반 손 제스처 인식 라이브러리 기술 연구
본 과제는 스마트폰·웨어러블·VR 기기 확산에도 콘텐츠 품질과 NUI가 부족한 문제를 해결하기 위해, 손 제스처로 VR의 3차원 객체와 직관적으로 상호작용하는 손 제스처 인식 라이브러리 개발 연구임.
연구목표는 머신러닝 기반 손 제스처 인식 라이브러리를 구축해 VR 콘텐츠용 내추럴 사용자 인터페이스(NUI)를 제공하는 데 있음. 연구내용은 정적·동적 제스처 유형 정의, 센서에 독립적인 추상적 손 메타포 구조화, 가려짐·주변환경에 강인한 딥러닝 인식, GPU 병렬 처리로 성능 가속, 3년 단계(1차 분류/정의·알고리즘, 2차 딥러닝, 3차 GPU·활용성 검증) 수행임. 기대효과는 다양한 VR 서비스·콘텐츠 확산과 신산업 창출 가속, 게임·교육·미디어 아트 및 제어/조작 시스템 분야 활용성 증대임.
가상현실 3D 오브젝트와의 상호작용을 위한 머신러닝 기반 손 제스처 인식 라이브러리 기술 연구
본 과제는 손 제스처로 가상현실(VR) 3차원 객체를 직접 만지듯 조작하는 내추럴 유저 인터페이스(NUI)를 구현하기 위한 손 제스처 인식 라이브러리 개발 연구임.
연구 목표는 사용자가 직관적이고 사용자 친화적으로 상호작용할 수 있도록 머신러닝 기반 인식 체계를 제공하는 데 있음. 핵심 연구 내용은 정적·동적 제스처 유형 정의, 센서에 독립적인 추상적 손 구조 정의, 가려짐과 주변 환경에 강인한 딥러닝 기반 정확도 향상, GPU 병렬 처리로 성능 가속화 및 라이브러리 활용성 검증임. 기대 효과는 게임·교육·미디어 아트 등 다양한 콘텐츠와 제어·조작 시스템 분야의 VR 신산업 확산에 기여함.
본 과제는 혼합현실 기반으로 발달 장애인의 일상생활 적응과 인지능력 향상을 돕는 손 인식·상호작용 훈련 시스템을 개발하는 연구임.
연구 목표는 혼합현실 기반 손 인식 인터페이스 기술과 훈련 가이드를 통해 교사 도움 없이 위험 요소 판단 및 도구 사용 훈련이 가능하도록 훈련 효과를 높이는 실감 상호작용 기술을 구현하는 데 있음. 핵심 연구 내용은 음식점 서빙 상황 훈련 서비스 및 컴포넌트형 컨텐츠 개발, 손 추적 및 인식, 트래킹 정보 보정, 실감 처리, 상황 인식 처리, 동적 시나리오 구성 요소 기술 개발로 정리됨. 기대효과는 위험 판단·도구 사용 훈련의 자율성 향상과 공동 연구기관 참여 하 사업화 추진으로 이어짐.