RnDCircle Logo
arrow left icon

이진호 연구실

서울대학교 전기·정보공학부

이진호 교수

AI Accelerators

Neural Architecture Search

Neural Network Compression

이진호 연구실

전기·정보공학부 이진호

이진호 연구실은 전기·정보공학부를 기반으로 차세대 인공지능 반도체 및 시스템 아키텍처 연구를 선도하고 있습니다. 본 연구실은 하드웨어 설계, 인공지능 가속기, 지능형 메모리, 분산 딥러닝 시스템 등 다양한 분야에서 혁신적인 연구를 수행하며, 인공지능과 하드웨어의 융합을 통한 실질적인 성능 향상과 효율성 극대화를 목표로 하고 있습니다. 연구실의 주요 연구 분야는 신경망 처리 장치(NPU), GPU, FPGA 등 다양한 하드웨어 플랫폼의 구조적 최적화와, 신경망-하드웨어 공동 설계(Co-Design)입니다. 데이터플로우 미러링, 미분 가능한 공동 탐색(DANCE), 경량 신경망 및 가속기 동시 설계 프레임워크 등 최신 기술을 개발하여, 실제 MLPerf 벤치마크 및 다양한 응용 분야에서 탁월한 성과를 거두고 있습니다. 또한, PIM(Processing-In-Memory) 기반의 지능형 메모리 시스템, 분산 딥러닝 환경에서의 효율적인 통신 및 데이터 처리, FPGA를 활용한 인메모리 데이터베이스 가속화 등 대규모 데이터와 고성능 컴퓨팅이 요구되는 환경에 최적화된 솔루션을 제시하고 있습니다. 이러한 연구는 클라우드, 데이터센터, 엣지 컴퓨팅 등 다양한 산업 현장에서 실질적인 파급효과를 창출하고 있습니다. 연구실은 다수의 특허 출원과 국내외 유수 학회 및 저널에 논문을 발표하며, 국가 대형 연구과제 및 산학협력을 통해 기술의 실용화와 인재 양성에도 힘쓰고 있습니다. 인공지능 반도체 융합전문 인력육성, AI 대학원 지원, 차세대 AI 반도체 데이터센터 아키텍처 등 다양한 프로젝트를 수행하며, 미래 정보기술 분야의 핵심 인재와 기술을 선도적으로 육성하고 있습니다. 앞으로도 이진호 연구실은 인공지능과 하드웨어의 경계를 허무는 융합 연구를 통해, 차세대 AI 반도체 및 시스템 아키텍처의 혁신을 이끌어갈 것입니다. 이를 통해 고성능, 저전력, 확장성이 뛰어난 인공지능 컴퓨팅 인프라 구축에 기여하고, 국내외 정보통신 및 반도체 산업의 발전에 중추적인 역할을 할 것입니다.

AI Accelerators
Neural Architecture Search
Neural Network Compression
하드웨어 설계 및 구조 최적화
이진호 연구실은 하드웨어 설계 및 구조 최적화 분야에서 선도적인 연구를 수행하고 있습니다. 연구실은 신경망 처리 장치(NPU), GPU, FPGA 등 다양한 하드웨어 플랫폼의 구조적 효율성을 극대화하기 위한 새로운 아키텍처와 설계 기법을 개발하고 있습니다. 특히, 시스톨릭 어레이 기반 NPU에서의 미세 공간 멀티태스킹, 데이터플로우 미러링, 그리고 고성능 병렬처리 구조에 대한 연구가 활발히 이루어지고 있습니다. 이러한 연구는 하드웨어 자원의 활용도를 극대화하고, 인공지능 및 딥러닝 모델의 연산 효율성을 높이기 위한 다양한 방법론을 포함합니다. 예를 들어, 데이터플로우 미러링 기법을 통해 기존의 거칠게 분할된 자원 할당 방식의 한계를 극복하고, 미세한 단위로 연산 자원을 동적으로 배분할 수 있도록 하여, 실제 MLPerf 벤치마크에서 최대 46.4%의 성능 향상을 달성하였습니다. 또한, GPU 및 FPGA를 활용한 고대역폭 컴퓨팅 랙 구축, PIM(Processing-In-Memory) 아키텍처 설계 등 차세대 컴퓨팅 인프라 연구도 병행하고 있습니다. 이러한 하드웨어 설계 및 구조 최적화 연구는 인공지능 반도체, 데이터센터, 엣지 컴퓨팅 등 다양한 응용 분야에서 실질적인 성능 개선과 에너지 효율성 향상에 기여하고 있습니다. 앞으로도 연구실은 차세대 AI 반도체 및 시스템 아키텍처의 혁신을 이끌어갈 핵심 기술 개발에 집중할 계획입니다.
인공지능 가속기 및 신경망-하드웨어 공동 설계
본 연구실은 인공지능 가속기 개발과 신경망-하드웨어 공동 설계(Co-Design) 분야에서 활발한 연구를 진행하고 있습니다. 신경망 모델의 특성과 하드웨어 구조를 동시에 고려하여 최적의 성능과 효율성을 달성하는 것이 주요 목표입니다. 이를 위해 차세대 AI 반도체를 위한 DPU(Data Processing Unit) 중심 데이터센터 아키텍처, 경량 신경망 및 가속기 동시 설계 프레임워크, 그리고 PIM 기반 대규모 언어 모델 학습 가속화 등 다양한 프로젝트를 수행하고 있습니다. 특히, 신경망과 연산 가속기의 구조적 통합 탐색, 미분 가능한 하드웨어-네트워크 공동 탐색(DANCE), 그리고 하드 제약 조건을 고려한 신경망-가속기 공동설계 등 혁신적인 연구가 이루어지고 있습니다. 이러한 연구는 실제로 특허 출원과 논문 발표로 이어지고 있으며, FP8 산술을 이용한 LLM(초거대 언어 모델) 훈련 가속화, Near Storage Processing을 활용한 대규모 모델 학습 등 최신 AI 트렌드에 부합하는 기술 개발에 집중하고 있습니다. 이와 같은 인공지능 가속기 및 공동 설계 연구는 AI 모델의 학습 및 추론 속도를 획기적으로 개선하고, 에너지 효율성과 확장성을 동시에 확보할 수 있는 기반을 마련합니다. 앞으로도 연구실은 AI 반도체와 신경망 설계의 융합을 통해 차세대 인공지능 시스템의 혁신을 선도할 계획입니다.
지능형 메모리 및 분산 딥러닝 시스템
이진호 연구실은 지능형 메모리 시스템과 분산 딥러닝 시스템 분야에서도 다양한 연구를 진행하고 있습니다. 최근에는 PIM(Processing-In-Memory) 기술을 활용한 대규모 데이터 처리, 메모리 내 연산 가속화, 그리고 분산 환경에서의 효율적인 딥러닝 학습 및 추론 방법론 개발에 주력하고 있습니다. 예를 들어, GradPIM과 같은 DRAM 내 연산 아키텍처를 통해 딥러닝 학습 과정에서의 메모리 대역폭 병목을 해소하고, 전체 시스템의 성능을 크게 향상시키는 연구를 수행하고 있습니다. 또한, FlexReduce와 같은 분산 딥러닝 환경에서의 효율적인 통신 알고리즘, FPGA 기반 인메모리 데이터베이스 가속화, 그리고 3D NAND 기반 PIM 기술을 활용한 초거대 AI 모델 추론 등 다양한 응용 연구가 이루어지고 있습니다. 이러한 연구는 클라우드, 데이터센터, 엣지 환경 등 다양한 컴퓨팅 인프라에서 대규모 AI 모델의 실시간 처리와 확장성을 지원하는 데 중요한 역할을 합니다. 지능형 메모리 및 분산 딥러닝 시스템 연구는 앞으로도 데이터 폭증 시대에 대응하는 고성능, 저비용, 에너지 효율적인 AI 컴퓨팅 인프라 구축에 핵심적인 기여를 할 것으로 기대됩니다. 연구실은 관련 분야의 산학협력 및 대형 국가과제 수행을 통해 실질적인 기술 이전과 산업적 파급효과를 창출하고 있습니다.
1
Enabling Fine-Grained Spatial Multitasking on Systolic-Array NPUs Using Dataflow Mirroring
이진호, Choi Jinwoo, Ha Yeonan, Lee Jounghoo, Lee Sangsu, Jang Hanhwi, Kim Youngsok
IEEE TRANSACTIONS ON COMPUTERS, 202312
2
Fast Adversarial Training with Dynamic Batch-level Attack Control
이진호, 최강현, 송재용, 이혜윤, 정재원, 장홍선, 박노성
Design Automation Conference, 202307
3
Design and Analysis of a Processing-in-DIMM Join Algorithm: A Case Study with UPMEM DIMMs
이진호, 박성연, 이수현, 김한준, 김영석, 최진우, 이정후, 임채민
International Conference on Management of Data, 202306
1
별탄생 이론의 새 패러다임: 간헐적 강착
과학기술정보통신부
2024년 08월 ~ 2025년 07월
2
반도체특성화대학지원사업-단독형-서울대학교
산업통상자원부
2024년 03월 ~ 2025년 02월
3
교육 콘텐츠에 대한 인공지능 기반 저작권 침해 의심요소 검출 및 대체 재료 콘텐츠 추천 기술 개발
문화체육관광부
2024년 ~ 2024년 12월