RnDCircle Logo
arrow left icon

IP-CAL

이화여자대학교 컴퓨터공학과

윤명국 교수

GPU Parallelism

Memory Management

Machine Learning Hardware

IP-CAL

컴퓨터공학과 윤명국

IP-CAL 연구실은 컴퓨터공학과를 기반으로 임베디드 시스템, 컴퓨터 및 GPU 아키텍처, 병렬 컴퓨팅, 인공지능 가속기 등 첨단 컴퓨터 시스템 분야의 연구를 선도하고 있습니다. 본 연구실은 Jetson Nano와 같은 최신 임베디드 플랫폼을 활용하여 임베디드 시스템의 기본 원리부터 고급 병렬 프로그래밍(CUDA, C 언어 등)까지 폭넓게 다루며, 실제 하드웨어와 소프트웨어를 접목한 실용적인 연구를 진행하고 있습니다. 특히, GPU 및 CPU 아키텍처의 설계와 최적화, 메모리 계층 구조, 시스템 I/O, 실시간 시스템 등 컴퓨터 시스템의 핵심 요소를 심도 있게 연구합니다. 이를 통해 대규모 병렬 처리 환경에서의 성능 및 에너지 효율을 극대화하는 다양한 하드웨어 및 소프트웨어 솔루션을 개발하고 있습니다. 최근에는 복소수 신경망, 멀티모달 AI, 딥러닝 트레이닝 및 추론을 위한 맞춤형 가속기 구조, 차세대 메모리 소자 적용 등 미래 지향적 연구도 활발히 이루어지고 있습니다. 연구실은 멀티테넌트 환경에서의 공정한 리소스 할당, GPU 내 여러 애플리케이션의 동시 실행 시 성능 및 공정성 분석, 실시간 시스템에서의 신뢰성 및 보안성 강화 등 실질적인 시스템 문제 해결에도 주력하고 있습니다. 또한, 커널 병합 및 퓨전, 프리패칭 및 스케줄링 최적화, 계층형 레지스터 파일, 고성능 메모리 관리 기법 등 다양한 첨단 기술을 연구하여 AI 워크로드의 처리 효율을 높이고 있습니다. 이러한 연구는 국가연구재단, 정보통신기획평가원 등 다양한 정부 및 산업체 지원 프로젝트와 연계되어 진행되고 있으며, 실제 산업 현장에 적용 가능한 기술로 발전하고 있습니다. 연구 성과는 국제 저명 학술지 및 학회에서 다수의 수상과 발표로 이어지고 있으며, 관련 특허 출원 및 기술이전 등 실질적인 사회적, 경제적 가치를 창출하고 있습니다. IP-CAL 연구실은 앞으로도 에너지 효율적이고 고성능의 컴퓨터 시스템 및 AI 가속기 개발을 통해, 차세대 인공지능 및 컴퓨팅 기술 발전에 기여하는 것을 목표로 하고 있습니다. 학생들은 이론과 실무를 겸비한 연구 경험을 쌓을 수 있으며, 국내외 산학연 협력을 통해 다양한 진로와 연구 기회를 얻을 수 있습니다.

GPU Parallelism
Memory Management
Machine Learning Hardware
임베디드 시스템 및 GPU 아키텍처 연구
본 연구실은 임베디드 시스템과 GPU(그래픽 처리 장치) 아키텍처의 설계 및 최적화에 중점을 두고 있습니다. 임베디드 시스템은 제한된 자원 환경에서 고성능 연산을 요구하는 다양한 응용 분야에서 필수적인 역할을 하며, 본 연구실은 Jetson Nano와 같은 최신 플랫폼을 활용하여 임베디드 시스템의 기본 원리부터 고급 기술까지 폭넓게 다루고 있습니다. 특히, C 프로그래밍과 CUDA 언어를 활용한 병렬 프로그래밍 기법을 통해 NVIDIA GPU의 연산 성능을 극대화하는 방법을 연구합니다. GPU 아키텍처 연구에서는 명령어 집합 구조(ISA), CPU 및 GPU 프로세서 설계, 메모리 계층 구조 등 컴퓨터 아키텍처의 핵심 개념을 심도 있게 다룹니다. 이를 위해 다양한 프로그래밍 과제와 실습을 통해 이론과 실무를 접목시키고, 최신 GPU 하드웨어 및 소프트웨어 동향을 반영한 교육과 연구를 진행합니다. 또한, GPU의 대규모 병렬 처리 능력을 활용하여 인공지능, 딥러닝, 그래프 신경망 등 다양한 첨단 응용 분야에 적용할 수 있는 아키텍처 최적화 기법을 개발하고 있습니다. 이러한 연구를 통해 임베디드 시스템과 GPU 아키텍처의 효율성과 성능을 극대화하고, 에너지 효율적인 범용 연산 가속기, 복합 연산 환경에서의 최적화된 하드웨어 및 소프트웨어 솔루션을 제시하는 것을 목표로 하고 있습니다. 연구 결과는 국내외 유수 학술지 및 학회에 다수 발표되고 있으며, 관련 특허와 산학협력을 통해 실질적인 산업적 파급효과도 창출하고 있습니다.
에너지 효율적 병렬 컴퓨팅 및 인공지능 가속기
본 연구실은 에너지 효율적 병렬 컴퓨팅 아키텍처와 인공지능(AI) 가속기 설계에 대한 선도적 연구를 수행하고 있습니다. 대규모 병렬 프로세서와 복합 연산 가속기의 성능 및 에너지 효율을 극대화하기 위한 다양한 하드웨어 및 소프트웨어 기법을 개발하고 있으며, 특히 복소수 신경망, 멀티모달 AI, 딥러닝 트레이닝 및 추론을 위한 맞춤형 가속기 구조에 집중하고 있습니다. 연구실에서는 차세대 메모리 소자와 계층형 레지스터 파일, 고성능 메모리 관리 기법, 프리패칭 및 스케줄링 최적화, 커널 병합 및 퓨전 등 다양한 기술을 활용하여 AI 워크로드의 처리 효율을 높이고 있습니다. 또한, 멀티테넌트 환경에서의 공정한 리소스 할당, GPU 내 여러 애플리케이션의 동시 실행 시 성능 및 공정성 분석, 그리고 실시간 시스템에서의 신뢰성 및 보안성 강화 등 실질적인 시스템 문제 해결에도 주력하고 있습니다. 이러한 연구는 국가연구재단, 정보통신기획평가원 등 다양한 정부 및 산업체 지원 프로젝트와 연계되어 진행되고 있으며, 실제 산업 현장에 적용 가능한 기술로 발전하고 있습니다. 연구 성과는 국제 저명 학술지 및 학회에서 다수의 수상과 발표로 이어지고 있으며, 관련 특허 출원 및 기술이전 등 실질적인 사회적, 경제적 가치를 창출하고 있습니다.
1
MOST: Memory Oversubscription-aware Scheduling for Tensor Migration on GPU Unified Storage
Junsu Kim, Jaebeom Jeon, Jaeyong Park, Sangun Choi, Minseong Gil, Seokin Hong, Gunjae Koo, Myung Kuk Yoon, Yunho Oh
IEEE Computer Architecture Letters (CAL), 1970
2
TM-Training: An Energy-Efficient Tiered Memory System for Deep Learning Training in NPUs
Jaeyong Park, Sangun Choi, Jongmin Kim, Gunjae Koo, Myung Kuk Yoon*, Yunho Oh*
ACM Transactions on Storage (TOS), 1970
3
TLP Balancer: Predictive Thread Allocation for Multi-Tenant Inference in Embedded GPUs
Minseong Gil, Jaebeom Jeon, Junsu Kim, Sangun Choi, Gunjae Koo, Myung Kuk Yoon*, Yunho Oh*
IEEE Embedded Systems Letters (ESL), 2025.06
1
Fine-grained Power Management Technique for Large-Scale Parallel Processors (대규모 병렬 프로세서를 위한 미세 전력 관리 기법)
National Research Foundation of Korea
2021년 09월 ~ 2024년 02월
2
Developing General Purpose Processing Unit for Machine Learning Algorithms (머신러닝 연산을 위한 범용 프로세싱 유닛 구조 연구)
Ewha Womans University
2021년 03월 ~ 2023년 02월
3
Transformer Benchmark
2023년 09월 ~ 2024년 06월