주요 논문
5
*2026년 기준 최근 6년 이내 논문에 한해 Impact Factor가 표기됩니다.
1
article
|
·
인용수 0
·
2026AvatarMoE: Decomposing non-rigid deformation with part-aware experts for 3DGS avatars
Hyeri Yang, J Hong, Shinwoong Kim, Kyungjae Lee
IF 2.8 (2026)
Computers & Graphics
https://doi.org/10.1016/j.cag.2026.104597
Robustness (evolution)
Mixture model
Gaussian
Encoder
Coherence (philosophical gambling strategy)
Leverage (statistics)
Architecture
Code (set theory)
2
article
|
인용수 2
·
2025Confidence-Guided LiDAR Depth Completion for Robust 3D Object Detection
Sangwon Hwang, Kyungjae Lee
IF 3.6 (2025)
IEEE Access
LiDAR 심도 보완은 희소 LiDAR 스캔으로부터 조밀한 심도 영상을 복원하는 것을 목표로 한다. 기존 방법들은 3D 장면 이해를 개선한다고 주장하지만, 3D 공간으로 직접 역투영하면 대개 물체 경계 주변에 오류가 있는 점들이 추가되어 결과적으로 하위 인식 성능이 저하된다. 핵심적으로, 이러한 방법들은 유사-LiDAR(pseudo-LiDAR) 품질을 제어하기 위한 메커니즘 없이 2D 복원에만 집중한다. 이를 해결하기 위해, 조밀한 심도 맵과 픽셀 단위 신뢰도(confidence) 맵을 함께 예측하는 새로운 심도 보완 네트워크를 제안한다. 신뢰도 맵은 유사-LiDAR 점군(pseudo-LiDAR point cloud) 생성 과정에서 신뢰할 수 없는 추정을 필터링하여 선택적 역투영을 가능하게 한다. 또한 LiDAR 반응은 장거리에서 점점 더 희소해지므로, 우리의 신뢰도 맵은 신뢰할 수 있는 장거리 추정을 우선하도록 학습한다. 이러한 학습 기반 보상 메커니즘은 센서의 한계를 완화하는 동시에 원거리 물체에 대한 탐지 성능을 향상시킨다. KITTI 3D 벤치마크에서, 우리의 유사-LiDAR로 학습된 검출기는 원시 32채널 데이터로 학습된 검출기보다 3D AP에서 14.2% 더 높은 성능을 보이며, 64채널 센서 전체와의 성능 격차를 63%까지 줄인다.
https://doi.org/10.1109/access.2025.3609143
Lidar
Point cloud
Depth map
Object detection
Focus (optics)
Object (grammar)
Detector
Point (geometry)
3
article
|
인용수 4
·
2024Dual-Modality Cross-Interaction-Based Hybrid Full-Frame Video Stabilization
Jae Young Jang, Yuseok Ban, Kyungjae Lee
IF 2.5 (2024)
Applied Sciences
본 연구는 자른 영역을 방지하면서 해상도를 유지하고, 안정성과 왜곡의 저하를 최소화하여 증강현실(Augmented Reality) 애플리케이션을 위한 비디오의 안정성을 향상시키는, 시각적으로 유용한 이미지를 생성하는 것을 목적으로 한다. 본 연구의 초점은 실행 속도를 유지하면서 성능 개선의 균형을 맞추는 연구를 수행하는 데 있다. 이를 위해 Versatile Quaternion-based Filter 알고리즘과 광학 흐름(optical flow)을 이용하여 관성측정장치(Inertial Measurement Unit, IMU) 센서 데이터를 처리한 후, 입력 비디오의 프레임에 대해 먼저 모션 보정을 적용한다. 크롭(cropping)에 대응하기 위해 PCA-flow 기반 비디오 안정화를 추가로 수행한다. 또한 전체 프레임 비디오 생성 과정에서 발생하는 왜곡을 완화하기 위해 신경 렌더링(neural rendering)을 적용하여 안정화된 프레임의 출력을 얻는다. IMU 센서를 사용하는 경우의 예상 효과는 비디오의 안정성을 증가시키면서도 시각적 품질을 유지하는 전체 프레임 비디오의 생성이다. 본 기술은 비디오 흔들림을 교정하는 데 기여하며, 저비용으로 시각적으로 유용한 이미지를 생성할 수 있다는 장점이 있다. 따라서 본 연구는 IMU 센서를 이용한 모션 보정 이후 전체 프레임 비디오를 산출하는 새로운 하이브리드(full-frame) 비디오 안정화 알고리즘을 제안한다. 본 방법을 세 가지 지표인 Stability score, Distortion value, Cropping ratio에 대해 평가한 결과, IMU 센서를 효과적으로 활용할 때 흐름 정확도(flow inaccuracy)에 대한 강인성이 더 높아져 안정화가 보다 효과적으로 달성되었음을 시사한다. 특히 평가 결과 중 ‘Turn’ 범주에서는, PCA flow, neural rendering, DIFRINT를 포함한 기존의 전체 프레임 비디오 안정화 기반 방법들의 평균 결과와 비교하여 Stability score는 18% 향상되었고 Distortion value는 3% 개선되었다.
https://doi.org/10.3390/app14104290
Dual (grammatical number)
Computer science
Art
4
article
|
인용수 7
·
2022Frame-to-Frame Visual Odometry Estimation Network With Error Relaxation Method
Sangwon Hwang, MyeongAh Cho, Yuseok Ban, Kyungjae Lee
IF 3.9 (2022)
IEEE Access
단안(monocular) 이미지를 이용한 프레임 간(frame-to-frame, F2F) 시각적 주행계(visual odometry) 추정은 누적 드리프트가 전파되어 쌓이는 문제로 인해 상당한 어려움이 있다. 본 연구는 후처리 없이 카메라 궤적의 일관성(coherence)을 고려하는 새로운 단순한 방법들을 통해, F2F 단안 시각적 주행계 추정을 위한 학습 기반 접근법을 제안한다. 제안하는 네트워크는 초기 추정과 오차 완화(error relaxation)라는 두 단계로 구성된다. 첫 번째 단계에서 네트워크는 특징을 추출하기 위해 시차(disparity) 이미지를 학습하고, 주의(attention)·회전(rotation)·이동(translation) 네트워크를 통해 인접한 두 프레임 간의 상대 카메라 자세를 예측한다. 이어서 오차 완화 단계에서는 국소 드리프트를 줄이고 동적 주행 장면에서의 일관성을 증가시키기 위한 손실함수(loss functions)를 제안한다. 또한 순차 데이터에 대응하는 데 있어 효과가 있음을 건너뛰기 순서(skip-ordering) 기법을 통해 보여준다. KITTI 벤치마크 데이터셋으로 수행한 실험에서, 제안된 네트워크는 더 높고 더 안정적인 성능으로 다른 접근법들보다 우수함을 보였다.
https://doi.org/10.1109/access.2022.3214823
Visual odometry
Computer science
Artificial intelligence
Monocular
Computer vision
Frame (networking)
Coherence (philosophical gambling strategy)
Consistency (knowledge bases)
Odometry
Benchmark (surveying)
5
article
|
인용수 31
·
2022Benchmarking Deep Learning Models for Instance Segmentation
Sunguk Jung, Hyeonbeom Heo, Sangheon Park, Sunguk Jung, Kyungjae Lee
IF 2.7 (2022)
Applied Sciences
인스턴스 분할은 자율주행, 드론 제어, 스포츠 분석 등 다양한 컴퓨터 비전 분야에서 주목받고 있다. 최근에는 많은 성공적인 모델들이 개발되었으며, 이는 정확도 중심과 속도 중심의 두 범주로 분류할 수 있다. 이 과제의 실시간 적용을 위해서는 정확도와 추론 시간이 모두 중요하다. 그러나 이러한 모델들은 서로 다른 하드웨어에서 측정된 추론 시간만을 제시하고 있어, 비교가 어렵다. 본 연구는 고정된 실험 환경에서 추론 시간에 초점을 맞춰, 최신 인스턴스 분할 모델들의 성능을 평가하고 비교한 최초의 연구이다. 정확한 비교를 위해서는 테스트 하드웨어와 환경이 동일해야 하므로, 정량적 및 정성적 분석을 위해 고정된 하드웨어 환경에서 모델들의 정확도와 속도를 제시한다. 속도 중심 모델은 고성능 GPU에서 실시간으로 동작하지만, 계산 성능이 충분하지 않은 경우 속도와 정확도 간에는 상충 관계가 존재한다. 실험 결과에 따르면 실시간 모델을 설계할 때 피처 피라미드 네트워크 구조를 고려할 수 있으며, 실시간 응용을 위해서는 속도와 정확도 간의 균형을 달성해야 한다.
https://doi.org/10.3390/app12178856
Computer science
Benchmarking
Inference
Segmentation
Artificial intelligence
Pyramid (geometry)
Machine learning
Deep learning
Task (project management)
Benchmark (surveying)