컴퓨터구조 및 병렬·분산 시스템
이 연구실은 멀티코어 프로세서, 칩 멀티프로세서(CMP), 온칩 메모리 계층, 캐시 공유 구조, 병렬 처리 환경 등 현대 컴퓨터 시스템의 핵심 구성요소를 아우르는 컴퓨터구조 연구를 수행한다. 특히 프로세서와 메모리 사이의 병목, 코어 수 증가에 따른 확장성 문제, 병렬 워크로드에서의 자원 충돌과 성능 불균형을 줄이기 위한 구조적 해법을 탐구한다. 초기 대표 연구인 NUCA 기반 캐시 공유 구조는 멀티코어 환경에서 캐시 공유 정도와 데이터 배치를 유연하게 조절해 성능과 에너지 효율을 동시에 개선하는 방향을 제시했다. 연구 방법론 측면에서는 캐시 구조 설계, 메모리 번역, 프리페처 재구성, TLB 커버리지 향상, 하이브리드 메모리 지원, 온칩 네트워크 최적화와 같은 세부 주제를 실제 시스템 소프트웨어와 결합하여 다룬다. 단순한 이론 제안에 그치지 않고, 다양한 병렬 응용과 상용 워크로드를 대상으로 시뮬레이션, 프로파일링, 실험 시스템 구현을 수행해 구조 설계의 효과를 검증하는 특징이 있다. 이는 마이크로아키텍처 수준의 개선이 운영체제, 가상화 계층, 데이터센터 워크로드의 실제 성능에 어떤 영향을 주는지 정밀하게 분석하려는 연구실의 방향성을 보여준다. 최근에는 전통적인 병렬 컴퓨팅을 넘어 AI 워크로드와 데이터센터 환경까지 확장하여, 대규모 모델 추론과 학습을 효율적으로 처리할 수 있는 서버 아키텍처 및 메모리 중심 시스템을 연구하고 있다. PIM, NPU, GPU 등 새로운 가속기가 대규모 병렬 시스템의 일부가 되면서, 연구실은 기존 컴퓨터구조 이론을 차세대 AI 반도체와 결합하는 연구를 추진하고 있다. 이를 통해 고성능, 고효율, 고확장성을 동시에 만족하는 미래형 컴퓨팅 시스템의 기반을 마련하고자 한다.
가상화·클라우드 시스템 소프트웨어
이 연구실은 가상머신, 하이퍼바이저, 컨테이너, 멀티테넌트 클라우드 환경에서 성능과 공정성, 격리성을 동시에 보장하는 시스템 소프트웨어 기술을 중점적으로 연구한다. 클라우드 컴퓨팅이 확산되면서 여러 서비스와 사용자가 동일한 물리 자원을 공유하게 되었고, 이 과정에서 CPU 시간 분배, 메모리 간섭, 캐시 일관성, 스케줄링 지연, 성능 예측 불가능성 같은 문제가 중요해졌다. 연구실은 이러한 문제를 운영체제와 컴퓨터구조 관점에서 함께 풀어내며, 자원 통합 환경에서도 안정적인 서비스 품질을 제공하는 방법을 모색한다. 대표적으로 듀얼 타임 슬라이스 기반 VM 스케줄링, 글로벌 가상시간 기반 공정 스케줄링, 마이크로 슬라이스된 가상 프로세서, 가상화된 멀티코어에서의 snooping coherence 최적화 등은 모두 가상화 계층의 비연속적 CPU 사용과 자원 경쟁을 줄이기 위한 연구들이다. 이러한 연구는 단일 VM의 성능 향상뿐 아니라, 클라우드 전체의 효율성과 지연 민감 서비스의 꼬리 지연 감소에도 초점을 둔다. 또한 가상화 시스템에서 중요한 서비스를 우선 가속하거나 전력 상태를 효율적으로 관리하는 특허와 연구 성과는 실제 데이터센터 운영 문제와 매우 밀접하게 연결되어 있다. 최근 연구는 하이퍼 컴포저블 데이터센터, 대규모 AI 워크로드 분석 플랫폼, 멀티 GPU 및 이기종 프로세서 기반 추론 서비스로 확장되고 있다. 즉 연구실은 전통적 서버 가상화 연구를 넘어, AI 반도체가 포함된 미래 데이터센터에서 자원을 어떻게 분할·조합·스케줄링할 것인지까지 다루고 있다. 이는 클라우드 시스템의 핵심 목표인 높은 자원 활용도와 예측 가능한 서비스 품질을 달성하기 위해, 아키텍처와 운영체제의 경계를 넘나드는 통합적 접근을 취하고 있음을 의미한다.
GPU·가속기 보안 및 기밀 컴퓨팅
이 연구실은 GPU, NPU, PIM과 같은 이기종 가속기가 클라우드와 AI 시스템의 핵심 자원이 되는 상황에서, 이들 가속기 위에서 안전한 실행 환경을 보장하는 보안 아키텍처를 연구한다. 기존의 보안 연구가 주로 CPU 중심의 신뢰 실행 환경에 집중했다면, 이 연구실은 실제 고성능 컴퓨팅과 생성형 AI 서비스에서 광범위하게 사용되는 GPU와 신경망 가속기까지 보호 범위를 확장한다. 이를 통해 특권 공격자, 취약한 커널, 멀티테넌트 환경에서의 데이터 노출, 메모리 변조, 무결성 훼손과 같은 새로운 위협 모델에 대응하고자 한다. 대표 연구인 ZeroKernel과 Heterogeneous Isolated Execution은 범용 GPU에서 컨텍스트 격리 실행을 지원하고, 특권 수준 공격자가 GPU 컨텍스트를 악용하는 문제를 분석하여 방어 메커니즘을 제시했다. 또한 GPU 메모리 보호를 위한 하드웨어 기반 암호화, 압축 카운터 설계, 안전한 멀티 GPU 컴퓨팅을 위한 메타데이터 관리, NPU용 무결성 보호 기술 등은 가속기 보안의 실용성을 크게 높인 성과들이다. 이와 함께 SGX 기반 중첩 엔클레이브, 보호된 원격 메모리, 신뢰할 수 있는 가상머신 지원 연구는 CPU와 가속기를 아우르는 기밀 컴퓨팅 환경으로 연구 범위를 넓히고 있다. 최근에는 생성형 AI의 프라이버시 보존을 위한 메모리 중심 이기종 HW-SW 시스템 연구, PIM/PNM 기반 기밀 컴퓨팅, 이기종 프로세서의 통합 메모리 보호 등으로 발전하고 있다. 이는 단순히 데이터를 암호화하는 수준을 넘어, AI 모델 자체의 보호, 사용자 입력과 출력의 무결성, 서비스 운영 중의 성능 저하 최소화까지 함께 고려하는 방향이다. 결국 이 연구실의 보안 연구는 고성능과 신뢰성을 동시에 요구하는 차세대 AI 인프라에서, 안전한 하드웨어-시스템 소프트웨어 공동설계의 기준을 제시하는 데 큰 의미가 있다.
AI 반도체 및 메모리 중심 가속 시스템
이 연구실은 최근 초거대 언어 모델과 대규모 딥러닝 서비스의 확산에 대응하여, AI 반도체와 메모리 중심 가속 시스템을 핵심 연구 축으로 확장하고 있다. 특히 LLM 추론에서 가장 큰 병목으로 등장하는 메모리 용량, 대역폭, 전력 소모 문제를 해결하기 위해 PIM(Processing-In-Memory)과 메모리 근접 연산 구조를 적극적으로 탐구한다. 이는 연산을 데이터가 있는 메모리 가까이로 이동시켜 불필요한 데이터 이동을 줄이고, 처리율과 에너지 효율을 동시에 높이려는 접근이다. 구체적으로는 희소화·양자화된 LLM을 지원하는 DRAM PIM 하드웨어 구조, PIM용 컴파일러와 시스템 소프트웨어, 희소 행렬 연산 가속, 멀티코어 NPU 자원 공유 분석, 온칩 메모리 데이터 재사용 향상, 이기종 프로세서 기반 엣지 추론 스케줄링 등 다양한 연구가 진행되고 있다. 이 연구들은 단일 칩의 성능 향상에 국한되지 않고, 서버와 데이터센터 수준에서 어떤 하드웨어 구성이 가장 효율적인지 분석하는 시뮬레이션 및 프로파일링 플랫폼 개발로도 이어진다. 즉 아키텍처 설계, 런타임 자원 관리, 컴파일러, 워크로드 분석이 유기적으로 연결된다는 점이 특징이다. 또한 연구실은 AI 반도체 인재 양성 사업과 연계하여 학문적 연구와 산업적 파급력을 동시에 추구하고 있다. 엣지 시스템에서의 SLO 기반 추론 스케줄러, 멀티테넌트 NPU 효율 개선, LLM 캐싱 최적화 등은 실제 서비스 배치 환경을 반영한 주제들이다. 이러한 연구는 차세대 AI 인프라에서 요구되는 고성능, 저전력, 보안성, 확장성을 아우르는 종합적 AI 시스템 설계를 가능하게 하며, 컴퓨터구조 연구를 AI 응용 시대에 맞게 재정의하는 역할을 한다.