기본 정보
연구 분야
프로젝트
발행물
구성원
연구 영역
대표 연구 분야
연구실이 가장 잘하는 대표 연구 분야
1

GPU 아키텍처 및 병렬 프로세서 구조

이 연구 주제는 대규모 병렬성을 활용하는 GPU와 유사 가속기의 마이크로아키텍처를 고도화하여 연산 성능과 자원 활용률을 동시에 높이는 데 초점을 둔다. 연구실은 프로세서 구조와 컴퓨터 구조를 기반으로 워프 스케줄링, 파이프라인 활용, 레지스터 파일 관리, 연산 지연 은닉과 같은 핵심 문제를 분석하며, 실제 응용의 실행 특성에 맞는 구조적 개선 방안을 설계한다. 특히 GPU 내부의 실행 단위가 어떤 병목으로 인해 성능 저하를 겪는지 정량적으로 파악하고, 이를 완화하기 위한 동적 제어 기법을 제안하는 데 강점을 보인다. 구체적으로는 워프 스케줄러의 fetch group 크기를 실행 구간에 따라 조절하는 동적 스케줄링, 계층형 레지스터 파일에서 발생하는 충돌을 완화하는 컴파일러 지원, 유휴 자원의 재활용을 통한 캐시 보존 등 GPU 내부 자원 관리 기법이 주요 연구 축을 이룬다. 이러한 접근은 단순히 평균 처리량을 높이는 수준을 넘어, 다양한 애플리케이션이 보이는 메모리 접근 패턴과 명령어 수준 특성을 세밀하게 반영한다는 점에서 의미가 크다. 최근 발표된 연구들에서도 레지스터, 캐시, 메모리 제어기, 주소 생성 과정 등 세부 구성 요소별 최적화를 통해 전체 GPU 처리 효율을 끌어올리는 방향이 일관되게 나타난다. 이 연구는 고성능 컴퓨팅, 그래픽스, 과학기술 계산, 임베디드 AI, 대규모 모델 추론 등 GPU 활용이 급증하는 환경에서 매우 높은 파급력을 가진다. 앞으로는 이종 가속기와 결합된 시스템, 저정밀 수치 형식 지원, 행렬 연산 특화 가속기와의 연계까지 포함하여 더욱 정교한 병렬 프로세서 설계로 확장될 가능성이 크다. 결과적으로 연구실의 GPU 아키텍처 연구는 차세대 컴퓨팅 플랫폼의 성능·전력·확장성 문제를 동시에 해결하는 기반 기술로 기능한다.

GPU병렬처리워프스케줄링레지스터파일마이크로아키텍처
2

메모리 계층 및 캐시·가상메모리 최적화

이 연구 주제는 프로세서 성능을 결정하는 핵심 요소인 메모리 계층 구조를 최적화하는 데 집중한다. 현대 컴퓨팅 시스템에서는 연산 장치의 성능이 크게 향상되었지만, 캐시 미스와 주소 변환 지연, 메모리 병목으로 인해 실제 응용 성능이 제한되는 경우가 많다. 연구실은 이러한 문제를 해결하기 위해 캐시 관리, 프리패칭, TLB 및 페이지 워크, 메모리 컨트롤러 설계 등 메모리 시스템 전반을 대상으로 구조적 개선 기법을 제안한다. 대표적으로 GPU에서 워프 간 접근 지역성과 stride 패턴을 활용하는 적응형 프리패칭 기법, 페이지 테이블 워크를 배치화하고 동시 처리하여 처리량을 높이는 가상메모리 최적화, 적응적 페이지 병합을 통한 TLB 효율 향상 등의 연구가 수행되었다. 또한 최신 GPU 아키텍처의 데이터 캐시 성능 분석, 중복 메모리 접근 제거, 희소·밀집 데이터 처리 특성에 맞춘 메모리 경로 개선 등도 중요한 세부 주제로 볼 수 있다. 이러한 연구는 하드웨어 구조와 소프트웨어 실행 패턴을 함께 고려하여 데이터 이동 비용을 줄이고, 메모리 병목을 체계적으로 해소하는 점이 특징이다. 이 분야의 성과는 범용 GPU뿐 아니라 AI 가속기, 임베디드 시스템, 클라우드 서버, 대규모 병렬 프로세서까지 폭넓게 적용될 수 있다. 특히 데이터 집약적 워크로드가 증가하는 상황에서 메모리 계층 최적화는 연산 성능 향상만큼이나 중요한 경쟁력이 된다. 연구실의 접근은 향후 초거대 모델, 실시간 서비스, 고속 분석 시스템에 필요한 저지연·고효율 메모리 시스템 설계의 핵심 기반으로 발전할 가능성이 높다.

캐시프리패칭가상메모리TLB메모리시스템
3

AI 워크로드 및 스토리지 연계 시스템 가속

이 연구 주제는 심층신경망과 대규모 데이터 처리 응용을 효율적으로 실행하기 위한 시스템 구조를 설계하는 데 목적이 있다. 연구실은 단순한 연산 가속을 넘어서, AI 워크로드의 수치 형식 변화, 멀티테넌시 환경의 대기 지연, 메모리 접근 중복, 스토리지와 계산의 결합 문제까지 함께 다룬다. 즉, 실제 서비스 환경에서 발생하는 시스템 수준 병목을 분석하고, 이를 완화하는 구조적 해법을 통해 차세대 AI 실행 플랫폼을 구현하려는 방향이 뚜렷하다. 관련 연구로는 다중 테넌트 GPU 환경에서 큐잉 지연을 줄이고 다양한 numeric format 기반 DNN을 비용 효율적으로 처리하는 시스템 구조 연구가 대표적이다. 또한 Transformer 워크로드를 위한 공격적 프리패칭, DNN의 중복 메모리 접근 제거, 양자화와 희소성의 상호작용 분석, GCN과 같은 특화 모델을 위한 행렬 곱셈 가속 등이 포함된다. 한편 SSD의 FTL 내부에 인덱스를 내장하는 FLIXR 연구는 저장장치가 단순 저장 계층을 넘어 데이터 검색과 분석을 지원하는 지능형 시스템 요소로 확장될 수 있음을 보여준다. 이는 AI와 데이터 시스템의 경계를 넘나드는 연구실의 응용 지향적 특성을 잘 나타낸다. 이 연구는 클라우드 AI 서비스, 데이터센터 인프라, 온디바이스 추론, 온라인 분석 시스템 등에서 높은 실용적 가치를 가진다. 앞으로는 AI 반도체, 스토리지 컴퓨팅, 시스템 소프트웨어, 컴파일러 최적화가 통합된 형태의 연구로 더 발전할 가능성이 크다. 궁극적으로 연구실은 실제 산업 수요와 학문적 난제를 연결하면서, 고성능·고효율·고확장성을 갖춘 AI 시스템 아키텍처를 제시하는 역할을 수행하고 있다.

심층신경망멀티테넌시스토리지Transformer시스템가속