Computer Architecture and Memory System Laboratory
인공지능공학과
이어진
컴퓨터 아키텍처 및 메모리 시스템 연구실은 컴퓨터공학과 소속으로, 메모리 시스템 및 DRAM 아키텍처, AI 응용을 위한 가속기 아키텍처, 그리고 최신 애플리케이션의 프로파일링을 주요 연구 주제로 삼고 있습니다. 최근 3년간 본 연구실은 그래프 신경망을 위한 효율적인 근거리 데이터 처리 아키텍처(GraNDe), 계층화된 메모리 시스템에서의 공격적인 강등 및 승격 기법(ADT), 그리고 그래프 컨볼루션 네트워크를 위한 적응형 행렬 매핑을 갖춘 근거리 데이터 처리 아키텍처(GraNDe) 등 다수의 연구 성과를 발표하였습니다. 이러한 연구 결과는 다양한 국제 학술지와 학회에서 인정받고 있으며, 특히 메모리 시스템 아키텍처와 AI 가속기 아키텍처 분야에서 높은 연구 역량을 보유하고 있습니다.
Memory System Architecture
메모리 시스템 아키텍처
DRAM Architecture
DRAM 아키텍처
AI Accelerator Architecture
그래프 신경망을 위한 효율적인 근거리 데이터 처리 아키텍처
최근 인공지능과 빅데이터의 발전에 따라, 그래프 신경망(Graph Neural Networks, GNN)에 대한 연구가 활발히 이루어지고 있습니다. 그래프 신경망은 복잡한 데이터 구조를 효율적으로 처리할 수 있는 강력한 도구로, 특히 소셜 네트워크 분석, 추천 시스템, 바이오 정보학 등 다양한 분야에서 활용되고 있습니다. 그런데 그래프 신경망 모델은 대규모 데이터셋을 처리할 때 연산과 메모리 병목 현상으로 인해 성능 저하가 발생할 수 있습니다. 이를 해결하기 위해 근거리 데이터 처리(Near-Data Processing, NDP) 아키텍처를 활용하여 그래프 신경망의 효율성을 극대화하는 연구를 진행하고 있습니다. 근거리 데이터 처리 아키텍처는 데이터가 저장된 위치 근처에서 연산을 수행함으로써 데이터 이동 비용을 줄이고, 병목 현상을 완화할 수 있습니다. 이러한 방식은 특히 대규모 데이터셋을 처리하는 AI 애플리케이션에서 큰 장점을 가지며, 시스템 전반의 성능 향상과 에너지 효율성을 동시에 달성할 수 있습니다. 연구 결과는 차세대 AI 가속기 아키텍처 설계에 중요한 기여를 할 것으로 기대됩니다.
Memory System & DRAM Architecture
Recently, to process explosively increasing data, industry companies have introduced large-scale computer systems performing data processing, which leads to a change from the traditional Computing-Centric computer system to the Data-Centric computer system. In other words, computer systems are evolving to optimize and transmission of large-scale data as well as the processing of conventional arithmetic and logical operations. In this situation, to make a better computer system, it is essential to improve the performance and energy efficiency of the memory system where data is stored while the program is running. In particular, in the case of the latest artificial intelligence and big data applications, the amount of data handled is explosively increasing, so the memory bandwidth requirement is also increasing significantly. To satisfy these requirements, our research group conducts research to 1) optimize the overall memory hierarchy (e.g., cache, main memory) based on computer architecture knowledge and 2) improve the structure of DRAM (e.g., DDR5, HBM2), the main memory device.
Accelerator Architecture for AI Applications
Traditionally, most computer systems have been developed for general use. However, since the execution of specific applications or algorithms occupies a significant portion of the total computation in modern data centers, there have been various studies on computer architectures for accelerating these applications. To architect such an accelerator, it is necessary to understand how the application operates in the computer system, which resources it requires, and which resources cause the performance bottleneck. Therefore, our research group conducts profiling of the behavior of various emerging applications (i.e., AI applications) in the latest CPU or GPU. Then, we conduct research to propose a new computer architecture (e.g., Processing-in-Memory (PIM)) that can accelerate the applications.
1
GraNDe: Efficient Near-Data Processing Architecture for Graph Neural Networks
Sungmin Yun, Hwayong Nam, Jaehyun Park, Byeongho Kim, Jung Ho Ahn, Eojin Lee
IEEE Transactions on Computers (TC), 2023
2
ADT: Aggressive Demotion and Promotion for Tiered Memeory
Yaebin Moon, Wanju Doh, Kwanhee Kyung, Eojin Lee, Jung Ho Ahn
IEEE Computer Architecture Letters (CAL), 2023
3
GraNDe: Near-Data Processing Architecture with Adaptive Matrix Mapping for Graph Convolutional Networks
Sungmin Yun, Byeongho Kim, Jaehyun Park, Hwayong Nam, Jung Ho Ahn, Eojin Lee
IEEE Computer Architecture Letters (CAL), 2022