RnDCircle Logo
이경한 연구실
서울대학교 전기·정보공학부
이경한 교수
기본 정보
연구 분야
프로젝트
발행물
구성원

이경한 연구실

서울대학교 전기·정보공학부 이경한 교수

이경한 연구실은 무선 이동 네트워크와 정보통신망을 중심으로 5G/6G 이동통신, 엣지·클라우드 기반 네트워크 아키텍처, 모바일 시스템 자원 스케줄링, 초저지연 전송 프로토콜, 오픈랜 및 vRAN, 그리고 AI 기반 데이터 압축전송과 온디바이스 추론 최적화까지 포괄하는 융합 연구를 수행하며, 실제 네트워크 측정과 시스템 구현을 통해 미래 지능형 통신 인프라의 성능·효율·사용자 경험을 함께 향상시키는 것을 목표로 한다.

대표 연구 분야
연구 영역 전체보기
차세대 무선 이동통신 및 5G/6G 네트워크 최적화 thumbnail
차세대 무선 이동통신 및 5G/6G 네트워크 최적화
주요 논문
3
논문 전체보기
1
article
|
인용수 1
·
2025
NeuroBalancer: Balancing System Frequencies With Punctual Laziness for Timely and Energy-Efficient DNN Inferences
Kyungmin Bin, Seyeon Kim, Sangtae Ha, Song Chong, Kyunghan Lee
IF 9.2
IEEE Transactions on Mobile Computing
On-device deep neural network (DNN) inference is often desirable for user experience and privacy. Existing solutions have fully utilized resources to minimize inference latency. However, they result in severe energy inefficiency by completing DNN inference much earlier than the required service interval. It poses a new challenge of how to make DNN inferences in a punctual and energy-efficient manner. To tackle this challenge, we propose a new resource allocation strategy for DNN processing, namely <italic xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink">punctual laziness</i> that disperses its workload as efficiently as possible over time within its strict delay constraint. This strategy is particularly beneficial for neural workloads since a DNN comprises a set of popular operators whose latency and energy consumption are predictable. Through this understanding, we propose NeuroBalancer, an operator-aware core and memory frequency scaling framework that balances those frequencies as efficiently as possible while making timely inferences. We implement and evaluate NeuroBalancer on off-the-shelf Android devices with various state-of-the-art DNN models. Our results show that NeuroBalancer successfully meets a given inference latency requirements while saving energy consumption up to 43.9% and 21.1% compared to the Android's default governor and up to 42.1% and 18.6% compared to SysScale, the state-of-the-art mobile governor on CPU and GPU, respectively.
https://doi.org/10.1109/tmc.2024.3524628
Computer science
Inference
Energy consumption
Reboot
Latency (audio)
Frequency scaling
Distributed computing
Android (operating system)
Workload
Inefficiency
2
article
|
인용수 0
·
2025
nCTX: A Neural Network-Powered Lossless Compressive Transmission Using Shared Information
Wooseung Nam, Sungyong Lee, Joohyun Lee, Kyunghan Lee
IF 9.2
IEEE Transactions on Mobile Computing
In this work, we explore the possibility of a new delivery method for lossless data, namely compressive transmission. It aims at minimizing the transmission data volume at runtime by exploiting the tailored information shared between the sender and the receiver. There are two approaches to leverage shared information for compression: 1) using a DNN-based codec as a proxy for shared information and 2) applying redundancy elimination using deduplication. However, these approaches have not been studied in depth to utilize the trade-off between the compression rate and the amount of shared information. Compared to these approaches, compressive transmission is unique as it fully leverages the abundance of information available on both sides, which is chosen and placed purposely. To bring the concept to reality, we propose nCTX, a neural network-powered Compressive Transmission System that adaptively exploits a generative model and matching blocks. nCTX extracts the optimal semantic data from the input data, exploiting shared information to closely imitate the original and compensate it with the offset (i.e., difference). Extensive evaluations in mobile platforms confirm that nCTX reduces the transmission volume significantly by 25.8% and 23.3% compared to FLIF and RC, the state-of-the-art image codecs, respectively, in comparable or shorter computation times.
https://doi.org/10.1109/tmc.2025.3530950
Computer science
Lossless compression
Transmission (telecommunications)
Artificial neural network
Computer network
Information transmission
Data compression
Telecommunications
Artificial intelligence
3
article
|
인용수 23
·
2023
An Empirical Study of 5G: Effect of Edge on Transport Protocol and Application Performance
Hyoyoung Lim, Jinsung Lee, Jongyun Lee, Sandesh Dhawaskar Sathyanarayana, Junseon Kim, Anh Tuan Nguyen, Kwang Taik Kim, Youngbin Im, Mung Chiang, Dirk Grunwald, Kyunghan Lee, Sangtae Ha
IF 9.2
IEEE Transactions on Mobile Computing
In this paper, we conduct a measurement study on operational 5G networks deployed across different frequency bands (mmWave and sub-6GHz) and server locations (mobile edge and Internet cloud). Specifically, we assess 5G performance in both uplink and downlink across multiple operators’ networks. We then carry out extensive comparisons of transport-layer protocols using ten different algorithms in full-fledged 5G networks, including an edge computing environment. Finally, we evaluate representative mobile applications over the 5G network with and without edge servers. Our comprehensive measurements provide several insights that affect the experience of 5G users: (i) With a 5G edge server, existing TCP congestion control algorithms can achieve throughput up to 1.8Gbps with only a single flow. (ii) The maximum TCP receive buffer size, which is set by off-the-shelf 5G phones, can limit the throughput performance of 5G networks, which is not observed in 4G LTE-A networks. (iii) Despite significant latency gains in download-centric applications, the 5G edge service provides limited benefits to CPU-intensive tasks or those that use significant uplink bandwidth. To our knowledge, this is the first measurement-driven understanding of 5G edge computing “in the wild,” which can provide an answer to how edge computing would perform in real 5G networks.
https://doi.org/10.1109/tmc.2023.3274708
Computer science
Protocol (science)
Computer network
Enhanced Data Rates for GSM Evolution
Distributed computing
Telecommunications
정부 과제
61
과제 전체보기
1
2025년 2월-2030년 2월
|237,022,000
차세대 네트워크 응용을 위한 범용적인 작업 지향 통신 시스템 연구
본 연구는 차세대 네트워크 애플리케이션에서 요구되는 멀티 태스크와 데이터 전송 효율을 달성하기 위해 기존 데이터 전송 기법의 한계를 극복하고, 작업 지향 통신 (task-oriented communication) 및 압축 기술의 적용 방안을 제시함. 구체적으로, 확장 가능하고 범용적인 모델 (scalable and universal model)을 기반으로 ...
네트워크
2
2024년 6월-2028년 12월
|2,031,500,000
클라우드-네이티브 이동통신 시스템 원천기술 개발 및 리더십 구축
● 본 연구개발과제는 클라우드-네이티브 이동통신시스템 구조 설계 및 국제적 역량을 갖춘 전문인력 양성을 통해 차세대 이동통신 분야에서의 글로벌 리더쉽 구축을 목표로 함.- 차세대 클라우드-네이티브 이동통신시스템 구조 설계 및 리더쉽 구축- 차세대 클라우드-네이티브 이동통신시스템 글로벌 공동 연구- 차세대 클라우드-네이티브 이동통신시스템 실현을 위한 연구 개...
핵심인재양성
해외 협력
클라우드-네이티브
이동통신 시스템
차세대 응용
3
2024년 6월-2028년 12월
|2,031,500,000
클라우드-네이티브 이동통신 시스템 원천기술 개발 및 리더십 구축
● 본 연구개발과제는 클라우드-네이티브 이동통신시스템 구조 설계 및 국제적 역량을 갖춘 전문인력 양성을 통해 차세대 이동통신 분야에서의 글로벌 리더쉽 구축을 목표로 함.- 차세대 클라우드-네이티브 이동통신시스템 구조 설계 및 리더쉽 구축- 차세대 클라우드-네이티브 이동통신시스템 글로벌 공동 연구- 차세대 클라우드-네이티브 이동통신시스템 실현을 위한 연구 개...
핵심인재양성
해외 협력
클라우드-네이티브
이동통신 시스템
차세대 응용
최신 특허
특허 전체보기
상태출원연도과제명출원번호상세정보
공개2024양자 네트워크의 성능 보장을 위한 양자 장치의 장기 양자 메모리 동적 조절 방법 및 장치1020240070805
공개2024다대다 스트리밍 서비스의 스트림 제어 시스템 및 방법1020240029595
공개2023무선 접속 네트워크에서의 슬라이스 자원 스케줄링 방법 및 장치1020230183230
전체 특허

양자 네트워크의 성능 보장을 위한 양자 장치의 장기 양자 메모리 동적 조절 방법 및 장치

상태
공개
출원연도
2024
출원번호
1020240070805

다대다 스트리밍 서비스의 스트림 제어 시스템 및 방법

상태
공개
출원연도
2024
출원번호
1020240029595

무선 접속 네트워크에서의 슬라이스 자원 스케줄링 방법 및 장치

상태
공개
출원연도
2023
출원번호
1020230183230