3차원 인간 자세 및 전신 메쉬 추정
문경식 연구실의 핵심 연구 축 가운데 하나는 단일 이미지, 비디오, 깊이 영상 등 다양한 시각 입력으로부터 사람의 3차원 자세와 전신 메쉬를 정확하게 복원하는 기술이다. 이 연구는 사람의 관절 위치를 추정하는 전통적 자세 인식을 넘어, 신체의 구조적 일관성, 카메라 거리 변화, 다중 인물 환경, 시간적 연속성까지 함께 고려하는 방향으로 확장된다. 특히 실제 환경에서 촬영된 영상은 가림, 원근 왜곡, 해상도 저하, 복잡한 배경 등의 문제가 동시에 존재하기 때문에, 연구실은 이러한 조건에서도 안정적으로 동작하는 강건한 3차원 인체 복원 기술을 지향한다. 연구 방법론 측면에서는 2차원 포즈를 중간 표현으로 활용한 3차원 복원, 그래프 신경망 기반 메쉬 회복, 카메라 거리 인지형 추정, 비디오 기반 시간적 정합성 강화 등 다양한 접근을 통합적으로 다룬다. Pose2Mesh, I2L-MeshNet, 다중 인물 3차원 포즈 추정, 비디오 기반 3차원 자세 및 형상 추정과 같은 연구 흐름은 단일 프레임 정확도뿐 아니라 연속 프레임 간 일관성과 메쉬 수준의 정밀성을 동시에 확보하려는 문제의식을 보여준다. 이는 단순 관절 검출을 넘어 사람의 움직임과 형상을 보다 완전한 3차원 표현으로 모델링하려는 연구 방향과 연결된다. 이 분야의 성과는 증강현실·가상현실, 스포츠 분석, 디지털 휴먼, 인간-컴퓨터 상호작용, 콘텐츠 제작, 원격 협업 등 매우 넓은 응용 가능성을 갖는다. 정확한 3차원 자세 및 메쉬 추정은 인간의 움직임을 기계가 이해하고 반응하는 기반 기술이며, 향후에는 생성형 모델, 물리 기반 인체 표현, 실시간 상호작용 시스템과 결합되어 더욱 사실적이고 개인화된 디지털 인간 기술로 발전할 가능성이 크다. 문경식 연구실은 이러한 흐름 속에서 학문적 정확도와 실제 활용성을 동시에 추구하는 컴퓨터 비전 연구를 수행하고 있다.
손 자세 인식 및 상호작용 표현 학습
연구실의 또 다른 대표 주제는 손의 3차원 자세와 형상을 정밀하게 추정하는 기술이다. 손은 관절 수가 많고 움직임의 자유도가 높으며, 작은 영역 안에 복잡한 자세 변화가 집중되기 때문에 전신보다도 더 어려운 시각 인식 문제로 여겨진다. 문경식 연구실은 손 단독 장면뿐 아니라 전신 문맥 속 손의 위치와 방향, 손가락의 세밀한 움직임, 두 손의 상호작용까지 포괄하는 문제를 다루며, 인간 행동 이해와 인터랙션 모델링의 정밀도를 높이는 데 초점을 둔다. 이러한 연구는 대규모 데이터셋 구축과 고정밀 모델 설계가 함께 요구된다. InterHand2.6M과 같은 데이터셋 및 기준선 연구는 실제 환경에서의 양손 상호작용 인식을 가능하게 하는 기반을 마련했으며, DeepHandMesh와 같은 연구는 손 관절을 넘어 표면 형상 수준의 정밀한 복원을 가능하게 했다. 최근의 Hand4Whole++ 계열 연구는 전신 추정기와 손 전용 추정기의 장점을 결합하는 모듈형 설계를 통해, 전역적인 신체 문맥과 국소적인 손 디테일을 동시에 반영하는 방향으로 발전하고 있다. 이는 손 인식에서 흔히 발생하는 감독 데이터의 불균형, 해상도 한계, 가림 문제를 완화하는 데 중요한 접근이다. 정밀한 손 자세 추정은 가상현실 인터페이스, 수어 인식, 원격 협업, 로봇 조작 모방, 디지털 휴먼 애니메이션, 의료 재활 분석 등 여러 분야에 직접적인 영향을 준다. 특히 손은 인간 의도의 가장 직접적인 표현 수단이므로, 손의 움직임을 얼마나 세밀하게 이해하느냐가 차세대 인터랙션 기술의 품질을 좌우한다. 문경식 연구실의 손 중심 연구는 컴퓨터 비전의 세밀 인식 문제를 해결하는 동시에, 사람과 기계의 자연스러운 상호작용을 가능하게 하는 핵심 기반 기술로서 의미가 크다.
단일 영상 기반 3차원 아바타 재구성과 동적 의상 표현
문경식 연구실은 최근 단일 이미지로부터 애니메이션 가능한 3차원 인간 아바타를 복원하는 연구를 적극적으로 확장하고 있다. 이 연구는 사진 한 장만으로 사람의 형상, 외형, 자세 의존 변형, 나아가 의상의 동적 움직임까지 재현하는 것을 목표로 한다. 기존 아바타 복원 기법이 주로 강체 관절 변환에 의존해 옷 주름이나 천의 흔들림 같은 동적인 요소를 충분히 반영하지 못했다면, 연구실은 보다 사실적이고 일반화 가능한 인간 아바타를 만드는 방향으로 문제를 재정의하고 있다. 대표적으로 DynaAvatar, PERSONA, PARTE와 같은 연구 흐름은 정적 외형 복원에서 나아가 포즈 구동 변형, 텍스처링, 동적 의상 표현을 함께 다루는 것이 특징이다. 여기에는 트랜스포머 기반 피드포워드 구조, 3D 가우시안 표현, 정적-동적 지식 전이, LoRA 기반 적응, 광류 기반 손실 설계 등 최신 시각 학습 기법이 활용된다. 또한 SMPL-X와 같은 인체 파라메트릭 모델을 기반으로 데이터 품질을 재정비하고, 부족한 동적 캡처 문제를 해결하기 위한 학습 전략을 제안함으로써 실제 활용 가능한 아바타 생성의 정확도와 확장성을 동시에 높이고 있다. 이 연구는 메타버스, 가상 피팅, 게임, 영화, 소셜 아바타, 원격 존재감 기술 등 디지털 휴먼 산업 전반에 큰 파급력을 가진다. 특히 개인화된 전신 아바타가 단순한 외형 복제에 그치지 않고 실제 움직임에 반응하는 의상 변형과 자연스러운 애니메이션을 제공하게 되면, 사용자 경험은 크게 향상될 수 있다. 문경식 연구실의 연구는 컴퓨터 비전, 그래픽스, 생성 모델, 인간 표현 학습의 경계를 연결하면서 차세대 디지털 아바타 기술의 핵심 기반을 구축하고 있다.