RnDCircle Logo
김태영 연구실
서경대학교 전자컴퓨터공학과
김태영 교수
기본 정보
연구 분야
프로젝트
발행물
구성원

김태영 연구실

서경대학교 전자컴퓨터공학과 김태영 교수

본 연구실은 컴퓨터그래픽스와 가시화를 기반으로 손 제스처·동작 인식, 증강·혼합현실 인터랙션, 음향 및 레이더 기반 지능형 센싱을 융합적으로 연구하며, 실시간 사용자 인터페이스와 실감형 시스템, 경량 인공지능 모델을 통해 사람 중심의 차세대 상호작용 기술을 개발하고 있다.

대표 연구 분야
연구 영역 전체보기
컴퓨터 비전 기반 손 제스처 및 동작 인식 thumbnail
컴퓨터 비전 기반 손 제스처 및 동작 인식
주요 논문
5
논문 전체보기
1
article
|
인용수 2
·
2025
Lightweight Hand Gesture Recognition Using FMCW RADAR With Multibranch Temporal Convolutional Networks and Channel Attention
Taeyoung Kim, Yunho Jung, Seongjoo Lee
IF 4.5
IEEE Sensors Journal
A novel lightweight hand gesture recognition approach that is based on Frequency-Modulated Continuous Wave (FMCW) RADAR, which aims to minimize computational complexity and memory usage as well as maintain a high recognition performance, is proposed in this paper. Most of the existing methods utilize two-dimensional (2D) or three-dimensional (3D) features that are combined with complex neural network structures, which result in high computational costs. The proposed approach in contrast extracts four components, which include range, Doppler, azimuth, and elevation, as the one-dimensional (1D) time-series features. These features are fed into a neural network that comprises of a multi-branch temporal convolutional network, depthwise separable convolutions, and a channel attention mechanism in order to enhance the classification performance. The experiments were conducted with 9 hand gestures that were collected from 9 participants. The proposed system achieved a high accuracy of 99.38% with only 44.6K parameters and 1.84M FLOPs. Extensive ablation studies and comparative experiments against the existing models demonstrated that the proposed method effectively balances the performance and computational efficiency. This study validates the expressive capability of 1D features for hand gesture recognition and suggests practical applicability in resource-constrained environments, such as embedded systems.
https://doi.org/10.1109/jsen.2025.3603295
Computer science
Continuous-wave radar
Channel (broadcasting)
Radar
Remote sensing
Gesture
Artificial intelligence
Radar imaging
Telecommunications
Real-time computing
2
article
|
인용수 1
·
2024
Bottom-up propagation of hierarchical dependency for multi-behavior recommendation
Taeyoung Kim, Hyeongjun Yang, Gayeon Park, Seungmi Lee, Kyong-Ho Lee
IF 8
Engineering Applications of Artificial Intelligence
https://doi.org/10.1016/j.engappai.2024.109364
Computer science
Dependency (UML)
Artificial intelligence
3
article
|
인용수 0
·
2024
Granular intents learning via mutual information maximization for knowledge-aware recommendation
Hyeongjun Yang, Yerim Lee, Gayeon Park, Taeyoung Kim, Heeseon Kim, Kyong-Ho Lee, Byungkook Oh
IF 7.6
Knowledge-Based Systems
http://dx.doi.org/10.1016/j.knosys.2024.112705
Maximization
Computer science
Mutual information
Knowledge management
Information retrieval
Artificial intelligence
Psychology
Social psychology
정부 과제
8
과제 전체보기
1
주관|
2017년 5월-2020년 5월
|12,500,000
가상현실 3D 오브젝트와의 상호작용을 위한 머신러닝 기반 손 제스처 인식 라이브러리 기술 연구
본 과제는 HTC 바이브, 오큘러스 리프트 같은 VR 환경에서 손 제스처로 3차원 객체를 자연스럽게 조작하는 내추럴 유저 인터페이스를 제공하는 연구임. 연구 목표는 머신러닝 기반 손 제스처 인식 라이브러리를 개발하여 가상현실 콘텐츠의 직관적 상호작용을 가능하게 하는 데 있음. 핵심 연구 내용은 정적 제스처·동적 제스처 유형 정의, 센서에 독립적인 추상적 손 메타포 구조 정의, 가려짐·주변 환경에 강인한 딥러닝 인식 알고리즘 개발, GPU 병렬 처리로 성능 가속화임. 기대 효과는 VR 콘텐츠 제작 여건 개선 및 게임·교육·미디어 아트 등 응용 확대로 확산됨.
가상현실
상호작용
손 제스처 인식
머신러닝
딥러닝
내추럴 사용자 인터페이스
서포트 벡터 머신
GPU 병렬처리
2
주관|
2017년 5월-2020년 5월
|50,000,000
가상현실 3D 오브젝트와의 상호작용을 위한 머신러닝 기반 손 제스처 인식 라이브러리 기술 연구
본 과제는 스마트폰·웨어러블·VR 기기 확산에도 콘텐츠 품질과 NUI가 부족한 문제를 해결하기 위해, 손 제스처로 VR의 3차원 객체와 직관적으로 상호작용하는 손 제스처 인식 라이브러리 개발 연구임. 연구목표는 머신러닝 기반 손 제스처 인식 라이브러리를 구축해 VR 콘텐츠용 내추럴 사용자 인터페이스(NUI)를 제공하는 데 있음. 연구내용은 정적·동적 제스처 유형 정의, 센서에 독립적인 추상적 손 메타포 구조화, 가려짐·주변환경에 강인한 딥러닝 인식, GPU 병렬 처리로 성능 가속, 3년 단계(1차 분류/정의·알고리즘, 2차 딥러닝, 3차 GPU·활용성 검증) 수행임. 기대효과는 다양한 VR 서비스·콘텐츠 확산과 신산업 창출 가속, 게임·교육·미디어 아트 및 제어/조작 시스템 분야 활용성 증대임.
가상현실
상호작용
손 제스처 인식
머신러닝
딥러닝
내추럴 사용자 인터페이스
서포트 벡터 머신
병렬처리
컨볼루
3
주관|
2017년 5월-2020년 5월
|50,000,000
가상현실 3D 오브젝트와의 상호작용을 위한 머신러닝 기반 손 제스처 인식 라이브러리 기술 연구
본 과제는 손 제스처로 가상현실(VR) 3차원 객체를 직접 만지듯 조작하는 내추럴 유저 인터페이스(NUI)를 구현하기 위한 손 제스처 인식 라이브러리 개발 연구임. 연구 목표는 사용자가 직관적이고 사용자 친화적으로 상호작용할 수 있도록 머신러닝 기반 인식 체계를 제공하는 데 있음. 핵심 연구 내용은 정적·동적 제스처 유형 정의, 센서에 독립적인 추상적 손 구조 정의, 가려짐과 주변 환경에 강인한 딥러닝 기반 정확도 향상, GPU 병렬 처리로 성능 가속화 및 라이브러리 활용성 검증임. 기대 효과는 게임·교육·미디어 아트 등 다양한 콘텐츠와 제어·조작 시스템 분야의 VR 신산업 확산에 기여함.
가상현실
상호작용
손 제스처 인식
머신러닝
딥러닝
내추럴 사용자 인터페이스
서포트 벡터 머신
GPU 병렬처리
최신 특허
특허 전체보기
상태출원연도과제명출원번호상세정보
등록2013실시간 손 포즈 인식을 통한 비접촉식 입력 인터페이스 방법 및 기록 매체1020130163827
등록2011증강현실 환경에서 실시간 마커리스 트래킹을 위한 특징 서술자의 데이터베이스를 기록한 컴퓨터가 읽을 수 있는 기록매체와 그 데이터베이스의 생성 및 검색 방법1020110015916
등록2009은닉 마르코프 모델 기반 동작 인식 방법 및 이를 실현시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체1020090006554
전체 특허

실시간 손 포즈 인식을 통한 비접촉식 입력 인터페이스 방법 및 기록 매체

상태
등록
출원연도
2013
출원번호
1020130163827

증강현실 환경에서 실시간 마커리스 트래킹을 위한 특징 서술자의 데이터베이스를 기록한 컴퓨터가 읽을 수 있는 기록매체와 그 데이터베이스의 생성 및 검색 방법

상태
등록
출원연도
2011
출원번호
1020110015916

은닉 마르코프 모델 기반 동작 인식 방법 및 이를 실현시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체

상태
등록
출원연도
2009
출원번호
1020090006554