RnDCircle Logo
최준원 연구실
서울대학교 학부대학
최준원 교수
기본 정보
연구 분야
프로젝트
논문
구성원

최준원 연구실

서울대학교 학부대학 최준원 교수

최준원 연구실은 신호처리와 무선통신 이론을 기반으로 차세대 이동통신의 채널 추정·압축센싱·빔 추적 기술을 연구하는 동시에, 딥러닝과 센서융합을 활용한 자율주행 인지, 3차원 객체 검출, 경로 예측, 온디바이스 AI 등 지능형 모빌리티 핵심 기술을 폭넓게 수행하는 융합형 연구실이다.

대표 연구 분야
연구 영역 전체보기
차세대 무선통신을 위한 신호처리 및 채널 추정 thumbnail
차세대 무선통신을 위한 신호처리 및 채널 추정
연구 성과 추이
표시된 성과는 수집된 데이터 기준으로 산출되며, 일부 차이가 있을 수 있습니다.

5개년 연도별 논문 게재 수

80총합

5개년 연도별 피인용 수

898총합
주요 논문
3
논문 전체보기
1
article
|
인용수 0
·
2025
OnlineBEV: Recurrent Temporal Fusion in Bird’s Eye View Representations for Multi-Camera 3D Perception
Junho Koh, Youngwoo Lee, Jungho Kim, Dongyoung Lee, Jun Won Choi
IF 8.4
IEEE Transactions on Intelligent Transportation Systems
Multi-view camera-based 3D perception can be conducted using bird’s eye view (BEV) features obtained through perspective view-to-BEV transformations. Several studies have shown that the performance of these 3D perception methods can be further enhanced by combining sequential BEV features obtained from multiple camera frames. However, even after compensating for the ego-motion of an autonomous agent, the performance gain from temporal aggregation is limited when combining a large number of image frames. This limitation arises due to dynamic changes in BEV features over time caused by object motion. In this paper, we introduce a novel temporal 3D perception method called OnlineBEV, which combines BEV features over time using a recurrent structure. This structure increases the effective number of combined features with minimal memory usage. However, it is critical to spatially align the features over time to maintain strong performance. OnlineBEV employs the Motion-guided BEV Fusion Network (MBFNet) to achieve temporal feature alignment. MBFNet extracts motion features from consecutive BEV frames and dynamically aligns historical BEV features with current ones using these motion features. To enforce temporal feature alignment explicitly, we use Temporal Consistency Learning Loss, which captures discrepancies between historical and target BEV features. Experiments conducted on the nuScenes benchmark demonstrate that OnlineBEV achieves significant performance gains over the current best method, SOLOFusion. OnlineBEV achieves 63.9% NDS on the nuScenes test set, recording state-of-the-art performance in the camera-only 3D object detection task.
https://doi.org/10.1109/tits.2025.3589152
Computer vision
Artificial intelligence
Perception
Computer science
Fusion
Sensor fusion
Psychology
Neuroscience
2
article
|
인용수 3
·
2024
Semi-Supervised Domain Adaptation Using Target-Oriented Domain Augmentation for 3D Object Detection
Yecheol Kim, Junho Lee, Chang‐Soo Park, Hyoung won Kim, Inho Lim, Christopher Chang, Jun Won Choi
IF 14.3
IEEE Transactions on Intelligent Vehicles
3D object detection is crucial for applications like autonomous driving and robotics. However, in real-world environments, variations in sensor data distribution due to sensor upgrades, weather changes, and geographic differences can adversely affect detection performance. Semi-Supervised Domain Adaptation (SSDA) aims to mitigate these challenges by transferring knowledge from a source domain, abundant in labeled data, to a target domain where labels are scarce. This paper presents a new SSDA method referred to as Target-Oriented Domain Augmentation (TODA) specifically tailored for LiDAR-based 3D object detection. TODA efficiently utilizes all available data, including labeled data in the source domain, and both labeled data and unlabeled data in the target domain to enhance domain adaptation performance. TODA consists of two stages: TargetMix and AdvMix. TargetMix employs mixing augmentation accounting for LiDAR sensor characteristics to facilitate feature alignment between the source-domain and target-domain. AdvMix applies point-wise adversarial augmentation with mixing augmentation, which perturbs the unlabeled data to align the features within both labeled and unlabeled data in the target domain. Our experiments conducted on the challenging domain adaptation tasks demonstrate that TODA outperforms existing domain adaptation techniques designed for 3D object detection by significant margins.
https://doi.org/10.1109/tiv.2024.3416080
Domain adaptation
Computer science
Domain (mathematical analysis)
Adaptation (eye)
Object (grammar)
Artificial intelligence
Computer vision
Object detection
Pattern recognition (psychology)
Psychology
3
article
|
인용수 15
·
2022
Deep Q-Network Based Beam Tracking for Mobile Millimeter-Wave Communications
Hyunwoo Park, Jeongwan Kang, Sang‐Woo Lee, Jun Won Choi, Sunwoo Kim
IF 10.7
IEEE Transactions on Wireless Communications
In this paper, we present a beam tracking algorithm based on the deep Q-network (DQN) for mobile millimeter-wave (mmWave) communications. The proposed algorithm determines the receive beam angle from the received signals without knowing the channel model and dynamics. It uses the received signals of the current and previous time slots to design the state and reward of the DQN. Our goal is to maximize the signal-to-noise ratio by the actions of the designed DQN. A significant computational complexity reduction is achieved since the receiver does not need to run complicated signal processing algorithms once the DQN is properly trained. Therefore a practical implementation of mmWave beam tracking with a very large number of antennas under harsh mobile environments becomes feasible. Through the extensive simulations, we verified the performance of the proposed algorithm and demonstrated robustness to the system uncertainty and low computational complexity in comparison with particle filter and the Q-learning.
https://doi.org/10.1109/twc.2022.3199746
Computer science
Robustness (evolution)
Extremely high frequency
Computational complexity theory
Cellular network
Algorithm
Reduction (mathematics)
Real-time computing
Telecommunications
Mathematics
정부 과제
31
과제 전체보기
1
2025년 6월-2028년 12월
|4,184,526,000
E2E 자율주행 레퍼런스 데이터 구축 및 기반 기술개발
본 과제는 End-to-End (E2E) 자율주행 기술 개발을 위한 레퍼런스 데이터셋을 구축하고, 이를 기반으로 AI 모델을 개발하는 것을 목표로 한다. 전체 목표는 다음의 세 가지 축으로 구성된다.첫째, E2E 자율주행 모델의 효율적인 학습을 위한 데이터 가공 및 처리 기술을 개발한다. 이를 위해 주행 데이터의 규격 및 시나리오를 정의하고, 학습 효율성과...
End to End 자율주행
인공지능
End to End 레퍼런스 데이터셋
End to End 자율주행 성능 검증
2
2025년 6월-2028년 12월
|2,305,395,000
E2E 자율주행 레퍼런스 데이터 구축 및 기반 기술개발
본 과제는 End-to-End (E2E) 자율주행 기술 개발을 위한 레퍼런스 데이터셋을 구축하고, 이를 기반으로 AI 모델을 개발하는 것을 목표로 한다. 전체 목표는 다음의 세 가지 축으로 구성된다.첫째, E2E 자율주행 모델의 효율적인 학습을 위한 데이터 가공 및 처리 기술을 개발한다. 이를 위해 주행 데이터의 규격 및 시나리오를 정의하고, 학습 효율성과...
End to End 자율주행
인공지능
End to End 레퍼런스 데이터셋
End to End 자율주행 성능 검증
3
2024년 7월-2028년 12월
|1,040,600,000
다중감각 지능모듈 내장용 AI 및 경량화 기술 개발
□ 다중 감각 기반의 환경 및 사물에 대한 인식을 위한 인공지능 기술 및 엣지 컴퓨팅이 가능한 경량화 기술개발 o 다중 감각 정보의 결합 및 유기적인 상호작용을 통한 객체인식 기술 - 다중 감각기반 기계 학습 및 딥러닝을 통한 패턴 인식 및 예측 모델링 - 영상, 언어를 포함한 다중센서 기반의 객체 및 상태 인식 기술 - 입력감각정보와 다른 스...
모델 경량화
온디바이스 AI
다중감각 AI
센서융합
비전-언어 파운데이션 모델
최신 특허
특허 전체보기
상태출원연도과제명출원번호상세정보
등록2024센서 데이터 융합을 통한 시맨틱 점유 예측을 위한 특징맵 생성방법, 컴퓨팅 장치 및 컴퓨터프로그램1020240201696
공개2022다중 센서 환경에서 이중 쿼리를 이용한 딥러닝 기반 센서융합 정보 생성 방법 및 시스템1020220178992
공개2022카메라를 포함하는 차량 제어 장치, 및 그 방법1020220039882
전체 특허

센서 데이터 융합을 통한 시맨틱 점유 예측을 위한 특징맵 생성방법, 컴퓨팅 장치 및 컴퓨터프로그램

상태
등록
출원연도
2024
출원번호
1020240201696

다중 센서 환경에서 이중 쿼리를 이용한 딥러닝 기반 센서융합 정보 생성 방법 및 시스템

상태
공개
출원연도
2022
출원번호
1020220178992

카메라를 포함하는 차량 제어 장치, 및 그 방법

상태
공개
출원연도
2022
출원번호
1020220039882

주식회사 디써클

대표 장재우,이윤구서울특별시 강남구 역삼로 169, 명우빌딩 2층 (TIPS타운 S2)대표 전화 0507-1312-6417이메일 info@rndcircle.io사업자등록번호 458-87-03380호스팅제공자 구글 클라우드 플랫폼(GCP)

© 2026 RnDcircle. All Rights Reserved.