RnDCircle Logo
이경재 연구실
용인대학교 AI학부 이경재 교수
영상신호처리
컴퓨터비전
인스턴스 세그멘테이션
기본 정보
연구 분야
프로젝트
논문
구성원

이경재 연구실

용인대학교 AI학부 이경재 교수

이경재 연구실은 AI학부 소속으로 컴퓨터 비전 분야의 영상신호처리 및 딥러닝 모델을 기반으로 한 인지·분할·자세추정 연구를 수행합니다. 인스턴스 및 의미 분할에서 멀티스케일 문맥을 결합하거나 하드웨어 고정 조건의 벤치마킹을 통해 정확도와 추론 효율을 함께 분석합니다. 또한 모노큘러 프레임 기반 시각 오도메트리에서 오차 완화 학습을 적용하고, 희소 LiDAR로부터 조밀 깊이를 복원할 때 신뢰도 맵으로 의사-라이다 품질을 제어합니다. 더불어 IMU와 광학흐름을 활용한 풀프레임 비디오 안정화와 3D Gaussian Splatting 기반 시각 편집 및 아바타 모델링을 병행합니다.

영상신호처리컴퓨터비전인스턴스 세그멘테이션의미 분할시각 오도메트리
대표 연구 분야
연구 영역 전체보기
IMU-비전 융합 기반 풀프레임 영상 안정화와 3DGS 시각 편집 thumbnail
IMU-비전 융합 기반 풀프레임 영상 안정화와 3DGS 시각 편집
IMU-Visual Fusion Full-Frame Video Stabilization and 3DGS Visual Editing
연구 분야 상세보기
연구 성과 추이
표시된 성과는 수집된 데이터 기준으로 산출되며, 일부 차이가 있을 수 있습니다.

5개년 연도별 논문 게재 수

14총합

5개년 연도별 피인용 수

195총합
주요 논문
5
논문 전체보기
1
article
|
·
인용수 0
·
2026
AvatarMoE: Decomposing non-rigid deformation with part-aware experts for 3DGS avatars
Hyeri Yang, J Hong, Shinwoong Kim, Kyungjae Lee
IF 2.8 (2026)
Computers & Graphics
https://doi.org/10.1016/j.cag.2026.104597
Robustness (evolution)
Mixture model
Gaussian
Encoder
Coherence (philosophical gambling strategy)
Leverage (statistics)
Architecture
Code (set theory)
2
article
|
인용수 2
·
2025
Confidence-Guided LiDAR Depth Completion for Robust 3D Object Detection
Sangwon Hwang, Kyungjae Lee
IF 3.6 (2025)
IEEE Access
LiDAR 심도 보완은 희소 LiDAR 스캔으로부터 조밀한 심도 영상을 복원하는 것을 목표로 한다. 기존 방법들은 3D 장면 이해를 개선한다고 주장하지만, 3D 공간으로 직접 역투영하면 대개 물체 경계 주변에 오류가 있는 점들이 추가되어 결과적으로 하위 인식 성능이 저하된다. 핵심적으로, 이러한 방법들은 유사-LiDAR(pseudo-LiDAR) 품질을 제어하기 위한 메커니즘 없이 2D 복원에만 집중한다. 이를 해결하기 위해, 조밀한 심도 맵과 픽셀 단위 신뢰도(confidence) 맵을 함께 예측하는 새로운 심도 보완 네트워크를 제안한다. 신뢰도 맵은 유사-LiDAR 점군(pseudo-LiDAR point cloud) 생성 과정에서 신뢰할 수 없는 추정을 필터링하여 선택적 역투영을 가능하게 한다. 또한 LiDAR 반응은 장거리에서 점점 더 희소해지므로, 우리의 신뢰도 맵은 신뢰할 수 있는 장거리 추정을 우선하도록 학습한다. 이러한 학습 기반 보상 메커니즘은 센서의 한계를 완화하는 동시에 원거리 물체에 대한 탐지 성능을 향상시킨다. KITTI 3D 벤치마크에서, 우리의 유사-LiDAR로 학습된 검출기는 원시 32채널 데이터로 학습된 검출기보다 3D AP에서 14.2% 더 높은 성능을 보이며, 64채널 센서 전체와의 성능 격차를 63%까지 줄인다.
https://doi.org/10.1109/access.2025.3609143
Lidar
Point cloud
Depth map
Object detection
Focus (optics)
Object (grammar)
Detector
Point (geometry)
3
article
|
인용수 4
·
2024
Dual-Modality Cross-Interaction-Based Hybrid Full-Frame Video Stabilization
Jae Young Jang, Yuseok Ban, Kyungjae Lee
IF 2.5 (2024)
Applied Sciences
본 연구는 자른 영역을 방지하면서 해상도를 유지하고, 안정성과 왜곡의 저하를 최소화하여 증강현실(Augmented Reality) 애플리케이션을 위한 비디오의 안정성을 향상시키는, 시각적으로 유용한 이미지를 생성하는 것을 목적으로 한다. 본 연구의 초점은 실행 속도를 유지하면서 성능 개선의 균형을 맞추는 연구를 수행하는 데 있다. 이를 위해 Versatile Quaternion-based Filter 알고리즘과 광학 흐름(optical flow)을 이용하여 관성측정장치(Inertial Measurement Unit, IMU) 센서 데이터를 처리한 후, 입력 비디오의 프레임에 대해 먼저 모션 보정을 적용한다. 크롭(cropping)에 대응하기 위해 PCA-flow 기반 비디오 안정화를 추가로 수행한다. 또한 전체 프레임 비디오 생성 과정에서 발생하는 왜곡을 완화하기 위해 신경 렌더링(neural rendering)을 적용하여 안정화된 프레임의 출력을 얻는다. IMU 센서를 사용하는 경우의 예상 효과는 비디오의 안정성을 증가시키면서도 시각적 품질을 유지하는 전체 프레임 비디오의 생성이다. 본 기술은 비디오 흔들림을 교정하는 데 기여하며, 저비용으로 시각적으로 유용한 이미지를 생성할 수 있다는 장점이 있다. 따라서 본 연구는 IMU 센서를 이용한 모션 보정 이후 전체 프레임 비디오를 산출하는 새로운 하이브리드(full-frame) 비디오 안정화 알고리즘을 제안한다. 본 방법을 세 가지 지표인 Stability score, Distortion value, Cropping ratio에 대해 평가한 결과, IMU 센서를 효과적으로 활용할 때 흐름 정확도(flow inaccuracy)에 대한 강인성이 더 높아져 안정화가 보다 효과적으로 달성되었음을 시사한다. 특히 평가 결과 중 ‘Turn’ 범주에서는, PCA flow, neural rendering, DIFRINT를 포함한 기존의 전체 프레임 비디오 안정화 기반 방법들의 평균 결과와 비교하여 Stability score는 18% 향상되었고 Distortion value는 3% 개선되었다.
https://doi.org/10.3390/app14104290
Dual (grammatical number)
Computer science
Art
최신 정부 과제
2
과제 전체보기
1
2021년 3월-2024년 12월
|846,370,000
실·가상 환경 해석 기반 적응형 인터랙션 기술 개발
o 가상증강 환경에서 사용자의 환경과 행동을 정밀하게 해석하고 그 정보를 공유하여 다수의 사용자에게 센서와 환경에 제약없이 동일한 인터랙션 품질을 제공하는 인터랙션 기술 개발o End Product - 다중·이형센서기반 상황적응형 인터랙션 프레임워크 (Framework) - 다인칭 실시간 복합공간 실·가상 위치 추정 및 상황인지 SW - 다인칭...
상황적응형 인터랙션
다중이형센서
다인칭 복합공간
개인화 인터랙션 모델링
인터랙션 프레임워크
2
주관|
2020년 8월-2023년 2월
|30,000,000
모바일 디바이스 딥러닝 기반 인간-사물 상호작용 연구
‣ Dataset 구축 및 딥러닝 기반 Human-Object Interaction (HOI) 기술 연구 ▹모바일 디바이스 기반 Human-Object Interaction Dataset 구축 - 모바일 디바이스에서 획득되는 다중 센서(광각/초광각/일반 카메라) 및 다양한 상황, 시점에 대한 Dataset을 구축 - 광각, 초광각 센서에 의해 Dataset에 존재하는 왜곡을 보정하기 위한 Image Rectification 기술 연구 - Ground truth 제작을 위한 Auto Labeling 기술 연구 및 Dataset 정제 - Generative Adversarial Network(GAN) 기술을 활용한 Dataset 분석 ▹GPU-Workstation 기반 Human-Object Interation (HOI) 연구 - GPU-Workstation 기반 딥러닝 알고리즘 Feasibility 검증 연구 - HOI 기반 영상 분석 (Visual Conten Analysis) 기술 연구 ‣ 모바일 디바이스 기반 HOI 기술 적용 연구 ▹모바일 디바이스 칩셋의 딥러닝 SDK/API 기술 확보 - 주요 모바일 프로세서(Qualcomm./Samsung/Apple)의 칩셋 정보 분석 - 프로세서 별 딥러닝 SDK(Software Development Kit) 기술 문서 분석 - 프로세서 별 딥러닝 API(Application Programming Interface) 기술 문서 분석 - 모바일 디바이스 기반 딥러닝에 활용 가능한 Layer 분석 ▹모바일 디바이스 기반 HOI 딥러닝 기술 경량화 연구 - 모바일 디바이스 기반 이미지 양자화(Quantization) 연구 - 모바일 디바이스 GPU(Graphics Processing Unit)/DSP(Digital Signal Processing)/NPU(Neural Processing Unit)에 적용 가능한 HOI 딥러닝 Layer 연구 - GPU-Workstation 기반 HOI 딥러닝 기술을 모바일 프로세서에 적용 및 Layer 별 성능 분석 ‣ 모바일 칩셋 (GPU/DSP/NPU) 딥러닝 HOI 기술 최적화 및 고도화 ▹모바일 디바이스 칩셋 별 HOI 딥러닝 기술 결과 분석 - GPU/DSP/NPU 프로세서 차이에 따른 딥러닝 HOI 기술 성능 분석 - 프로세서 구조에 맞는 최적화된 딥러닝 Layer 기술 연구 ▹GPU/DSP/NPU에 따른 성능 장단점 분석 및 해당 칩셋에 맞게 HOI 딥러닝 알고리즘 최적화 및 고도화 - 프로세서에 범용적으로 적용 가능한 General Layer 최적화 및 HOI 성능 고도화 - 프로세서 별 최고의 성능을 도출하는 특화된 딥러닝 Layer 연구 및 HOI 성능 고도화
인공지능
컴퓨터비전
사람-사물간상호작용
딥러닝
모바일디바이스
머신러닝전용신경망처리장치
영상처리
최신 특허
특허 전체보기
상태출원연도과제명출원번호상세정보
등록2021컨텐츠에 관한 추천 정보를 생성하기 위한 장치 및 방법1020210149302
공개2019스케일러블 딥 러닝 네트워크를 구동하는 전자 장치, 사용자 단말 및 방법1020190131227
등록2019이미지 내의 오브젝트 선택에 대응하는 서비스를 제공하기 위한 전자 장치 및 방법1020190019565
전체 특허

컨텐츠에 관한 추천 정보를 생성하기 위한 장치 및 방법

상태
등록
출원연도
2021
출원번호
1020210149302

스케일러블 딥 러닝 네트워크를 구동하는 전자 장치, 사용자 단말 및 방법

상태
공개
출원연도
2019
출원번호
1020190131227

이미지 내의 오브젝트 선택에 대응하는 서비스를 제공하기 위한 전자 장치 및 방법

상태
등록
출원연도
2019
출원번호
1020190019565

주식회사 디써클

대표 장재우,이윤구서울특별시 강남구 역삼로 169, 명우빌딩 2층 (TIPS타운 S2)대표 전화 0507-1312-6417이메일 info@rndcircle.io사업자등록번호 458-87-03380호스팅제공자 구글 클라우드 플랫폼(GCP)

© 2026 RnDcircle. All Rights Reserved.