기본 정보
연구 분야
논문
구성원
연구 영역
대표 연구 분야
연구실이 가장 잘하는 대표 연구 분야
1

컴퓨터 애니메이션 편집 및 모션 합성

이 연구 주제는 3차원 캐릭터의 움직임을 보다 직관적이고 표현력 있게 생성·편집하는 컴퓨터 애니메이션 기술에 초점을 둔다. 연구실의 논문들은 사용자가 복잡한 수치 파라미터를 직접 다루지 않고도 스케치, 시공간 제약, 계층적 모션 표현 등을 통해 캐릭터 동작을 자연스럽게 제어할 수 있도록 하는 방법을 제안한다. 특히 관절 기반 캐릭터 모션의 편집성과 표현성을 동시에 높이는 문제를 핵심 과제로 다루며, 실제 제작 환경에서 활용 가능한 상호작용형 애니메이션 도구로의 확장을 지향한다. 대표적으로 스케치 기반 모션 편집 연구는 2차원 사용자 입력을 3차원 자세와 동작 제약으로 해석하는 최적화 프레임워크를 통해, 관절 궤적이나 부모-자식 관절 관계, 협응 동작과 같은 다양한 움직임 속성을 한 화면에서 직관적으로 수정할 수 있도록 한다. 또한 모션 레이어 분해 연구에서는 입력 모션을 기저 움직임, 제어 가능한 변위 성분, 고주파 잔차 성분으로 부드럽게 분해하여 보간, 블렌딩, 업샘플링, 시간 왜곡, 잡음 제거 등 다양한 합성 작업에 유연하게 대응한다. 이러한 접근은 단순한 재생이 아니라 의미 있는 모션 구조를 분리해 재조합한다는 점에서 고품질 캐릭터 애니메이션 생성에 중요한 기반이 된다. 이 분야의 연구는 게임, 영화, 가상현실, 메타버스 콘텐츠 제작에서 제작 효율과 표현력을 크게 향상시킬 수 있다. 복잡한 수작업 리깅과 프레임 단위 편집 부담을 줄이면서도 창작자의 의도를 더 정확하게 반영할 수 있기 때문이다. 앞으로는 생성형 인공지능, 물리 기반 시뮬레이션, 사용자 인터페이스 기술과 결합하여 더욱 자연스럽고 적응적인 캐릭터 모션 생성 환경으로 발전할 가능성이 크다.

컴퓨터애니메이션모션합성스케치기반편집모션분해캐릭터모션
2

딥러닝 기반 얼굴 리타기팅 및 표정 전이

이 연구 주제는 사람의 얼굴 표정이나 애니메이션 성능 데이터를 서로 다른 3차원 캐릭터 모델로 자연스럽게 이전하는 얼굴 리타기팅 기술을 다룬다. 연구실은 특히 기존 방식이 필요로 하던 수동 대응점 설정, 의미 파라미터 정렬, 표정 데이터 쌍 구성의 한계를 줄이기 위해 딥러닝 기반의 자동화된 리타기팅 방법을 연구하고 있다. 이는 실제 인간 얼굴과 비현실적이거나 과장된 스타일의 캐릭터 사이에서도 표정의 의미를 유지하면서 애니메이션을 전달하는 데 중요한 문제이다. 비지도학습 기반 얼굴 리타기팅 연구에서는 소스와 타깃 모델의 다양한 표정을 렌더링 이미지 형태로 공유 잠재공간에 투영하여, 수동 정합 없이도 표정 대응 관계를 학습한다. 이어서 블렌드셰이프 가중치를 예측하여 최종적으로 타깃 3차원 캐릭터의 표정 애니메이션을 생성한다. 최근 연구에서는 국소 패치 기반 접근을 통해 얼굴 구조가 크게 다른 스타일라이즈드 캐릭터에도 적용 범위를 넓혔으며, 눈·입·볼 등 지역 특징을 세밀하게 반영해 원본 표정의 의미와 감정 전달력을 유지하려는 방법론을 제시하였다. 이러한 기술은 디지털 휴먼, 버추얼 휴먼, 게임 캐릭터, 애니메이션 제작, 소셜 아바타 시스템 등 다양한 응용 분야에서 높은 활용성을 가진다. 특히 하나의 퍼포먼스 데이터를 여러 캐릭터 자산에 효율적으로 재사용할 수 있어 제작 비용을 줄이고 콘텐츠 다양성을 높일 수 있다. 향후에는 멀티모달 입력, 실시간 추론, 고해상도 표정 제어와 결합하여 더욱 정교한 캐릭터 커뮤니케이션 기술로 확장될 전망이다.

얼굴리타기팅딥러닝표정전이블렌드셰이프디지털캐릭터
3

오디오 기반 3D 얼굴 발화 애니메이션

이 연구 주제는 음성 신호만을 입력으로 받아 3차원 얼굴의 입 모양과 표정 움직임을 자동 생성하는 발화 애니메이션 기술에 관한 것이다. 연구실은 단순히 음소와 입술 모양을 대응시키는 수준을 넘어, 다양한 발화 속도와 실제 환경의 음성 조건에서도 자연스럽고 사실적인 얼굴 애니메이션을 생성하는 문제를 다루고 있다. 이는 음성 인터페이스와 가상 인간 기술이 확산되는 환경에서 매우 중요한 연구 방향이다. 대표 연구에서는 고정 길이 오디오 윈도우를 사용하는 기존 방법의 한계를 극복하기 위해, 말하기 속도를 반영하는 적응형 윈도우 기반 모델을 제안하였다. 먼저 자기지도학습 방식으로 음성의 발화 속도를 추정하고, 그 결과를 바탕으로 현재 프레임에 적절한 오디오 구간 크기를 예측한다. 이후 작은 윈도우와 큰 윈도우를 함께 사용하여 세밀한 발음 정보와 넓은 문맥 정보를 동시에 반영하고, 이를 기반으로 3차원 얼굴 애니메이션을 생성한다. 이 방식은 빠른 랩, 느린 노래, 일반 대화 등 서로 다른 발화 조건에서도 안정적인 성능을 보인다는 점이 특징이다. 이 연구는 버추얼 휴먼, 디지털 아나운서, 음성 기반 아바타, 온라인 교육, 엔터테인먼트 콘텐츠 제작 등에서 직접적으로 활용될 수 있다. 특히 텍스트나 모션캡처 없이도 음성만으로 자연스러운 발화 애니메이션을 만들 수 있다는 점에서 제작 효율성이 높다. 향후에는 텍스트 정보, 감정 추정, 시선 제어, 얼굴 전체 표정 생성과 결합하여 더 풍부한 대화형 디지털 캐릭터 시스템으로 발전할 가능성이 크다.

오디오기반애니메이션발화애니메이션3D얼굴적응형윈도우가상인간

주식회사 디써클

대표 장재우,이윤구서울특별시 강남구 역삼로 169, 명우빌딩 2층 (TIPS타운 S2)대표 전화 0507-1312-6417이메일 info@rndcircle.io사업자등록번호 458-87-03380호스팅제공자 구글 클라우드 플랫폼(GCP)

© 2026 RnDcircle. All Rights Reserved.