기본 정보
연구 분야
프로젝트
발행물
구성원
연구 영역
대표 연구 분야
연구실이 가장 잘하는 대표 연구 분야
1

운영체제 및 가상화 시스템

이 연구 주제는 운영체제 커널, 하이퍼바이저, 가상머신 및 컨테이너와 같은 시스템 소프트웨어의 핵심 구조를 고도화하여 다양한 컴퓨팅 환경에서 높은 성능과 안정성을 확보하는 데 초점을 둔다. 연구실의 논문과 특허, 학술발표 이력을 보면 Xen, KVM, ARM 기반 가상화, 메모리 관리, I/O 스케줄링, 커널 최적화, 실시간성 보장과 같은 주제가 장기간 축적되어 있으며, 이는 연구실의 가장 중심적인 정체성을 보여준다. 특히 임베디드 장치, 소비자 전자기기, 모바일 환경, 클라우드 서버 등 서로 다른 플랫폼에서 운영체제의 동작 특성을 비교하고 개선하는 접근이 두드러진다. 세부적으로는 가상화 환경에서 발생하는 CPU, 메모리, 블록 I/O, 네트워크 I/O 병목을 정밀하게 분석하고, 자원 격리와 성능 보장을 동시에 만족시키는 스케줄링 및 메모리 관리 기법을 개발한다. 가상 머신 간 압축·공유 스왑, SLA 기반 자원 할당, 성능 고립성 향상, 실시간 스케줄 가능성 분석, GPU 가상화, 가상 라우터 최적화 등은 모두 운영체제 내부 메커니즘을 활용해 시스템 효율을 끌어올리는 대표 사례다. 최근에는 컨테이너와 쿠버네티스 환경까지 연구 범위가 확대되며, 전통적 하이퍼바이저 연구와 현대 클라우드 네이티브 인프라 연구가 연결되고 있다. 이 연구의 의의는 단순한 성능 개선에 그치지 않고, 차세대 클라우드와 엣지 인프라의 기반 기술을 제공한다는 점에 있다. 분산 딥러닝, 디지털 헬스, 블록체인, 차량용 플랫폼처럼 고신뢰·고성능이 동시에 필요한 응용에서 운영체제와 가상화 기술은 가장 아래층에서 전체 시스템 품질을 좌우한다. 따라서 본 연구는 시스템 소프트웨어의 구조적 한계를 분석하고, 실제 서비스 수준 목표를 만족시키는 실용적 기술로 확장된다는 점에서 학문적 가치와 산업적 파급력이 모두 크다.

운영체제가상화커널하이퍼바이저자원관리
2

클라우드 네트워크 및 성능 보장

이 연구 주제는 클라우드와 데이터센터 환경에서 네트워크 성능을 예측·제어·보장하는 기술을 다룬다. 연구실의 특허와 최근 국제학술대회 논문들을 보면 컨테이너의 네트워크 SLO 보장, SDN 기반 네트워크 가상화, 테넌트 간 대역폭 격리, 네트워크 하이퍼바이저 설계, 트래픽 모니터링과 로드밸런싱 등 클라우드 네트워킹 전반에 걸친 연구가 활발하다. 이는 전통적 컴퓨터 네트워크 연구를 넘어, 가상화된 현대 클라우드 인프라에서 요구되는 정밀한 성능 관리로 연구가 진화했음을 보여준다. 구체적으로는 멀티 테넌트 환경에서 서로 다른 워크로드가 공유 자원을 사용할 때 발생하는 성능 간섭을 줄이고, 사용자 또는 서비스별 목표 품질을 충족하는 제어 메커니즘을 개발한다. SDN 컨트롤 플레인 트래픽 분석, 네트워크 모니터링 프레임워크, 장애복구 시 대역폭 인지형 페일오버, 트래픽 예측 기반 경로 최적화, 가상 링크 자원 배분, 데이터센터 스위치의 트래픽 분산 등은 모두 이러한 목적을 위한 핵심 요소다. 또한 네트워크 가상화와 컨테이너 기술이 결합된 환경에서 성능 고립성을 보장하기 위한 커널 수준 최적화와 스케줄링 기법도 함께 연구되고 있다. 이 연구는 클라우드 서비스 제공자의 운영 효율성과 사용자 체감 성능을 동시에 향상시키는 데 직접 연결된다. 인공지능 학습, 블록체인, IoT 게이트웨이, 디지털 헬스 플랫폼처럼 네트워크 의존도가 높은 응용에서는 작은 지연이나 대역폭 변동도 전체 서비스 품질에 큰 영향을 준다. 따라서 본 연구는 데이터센터와 클라우드 인프라를 보다 예측 가능하고 관리 가능한 시스템으로 만드는 기반 기술이며, 향후 6G, O-RAN, 엣지 클라우드와 같은 차세대 네트워크 환경으로도 자연스럽게 확장될 수 있다.

클라우드네트워크성능보장SDN대역폭격리
3

분산 딥러닝과 이기종 GPU 자원 스케줄링

이 연구 주제는 이기종 GPU가 혼재된 클라우드 환경에서 분산 딥러닝 학습을 효율적으로 수행하기 위한 자원 예측과 스케줄링 기술을 다룬다. 최근 수행 중인 과제와 다수의 2021~2024년 학술발표를 보면 GPU 자원 소모량 예측, 학습 시간 예측, 선점 기반 스케줄링, 배치 크기와 모델 구조에 따른 성능 분석, 체크포인트 병목 분석, 커널 인터페이스 병목 분석 등 매우 구체적인 연구가 축적되어 있다. 이는 연구실이 기존 운영체제·클라우드 역량을 인공지능 인프라 최적화 문제에 적극적으로 접목하고 있음을 의미한다. 핵심 문제는 GPU 세대와 성능이 서로 다른 환경에서 학습 작업마다 요구 자원이 다르고, 네트워크 통신량과 메모리 사용 패턴도 크게 달라진다는 점이다. 연구실은 이러한 이질성을 정량적으로 모델링하고, 작업 배치 순서와 배치 크기, GPU 할당 개수, 컨테이너 배치 위치, 통신 병목 등을 종합적으로 고려하는 스케줄링 기법을 연구한다. 분산 딥러닝 학습에서 네트워크 대역폭과 모델 특성에 따른 시간 변화, Mixture of Experts 학습 특성, 분할·연합학습의 통신 비용, 자원 제약 단말에서의 연합학습 실행 패턴 분석 등은 단순한 AI 모델 연구가 아니라 시스템 관점에서의 AI 인프라 연구라는 특징을 갖는다. 이 연구의 중요성은 대규모 인공지능 모델의 학습 비용과 시간을 줄이고, 제한된 GPU 자원을 더 많은 사용자와 서비스가 효율적으로 공유할 수 있게 한다는 데 있다. 특히 클라우드 사업자나 연구기관은 동일한 하드웨어로 더 높은 처리량과 예측 가능한 학습 성능을 확보해야 하므로, 자원 자동공급과 간섭 최적화 스케줄링은 실질적 가치가 매우 크다. 나아가 이러한 성과는 AI 클라우드, 과학기술 계산, 디지털 헬스 분석, 대규모 언어모델 운영 등 고성능 컴퓨팅 응용 전반의 기반이 된다.

분산딥러닝이기종GPU스케줄링자원예측클라우드