연구실에서 최근에 진행되고 있는 관심 연구 분야
1
고성능 컴퓨터 아키텍처 및 시스템 설계
VIA 연구실은 차세대 고성능 컴퓨터 아키텍처와 시스템 설계에 중점을 두고 있습니다. 특히 GPU 컴퓨팅, 메모리 계층 구조, DRAM 아키텍처 등 다양한 하드웨어 요소를 통합적으로 연구하여, 대규모 데이터 처리와 인공지능 연산에 최적화된 시스템을 개발하고 있습니다. 이러한 연구는 기존의 컴퓨팅 한계를 극복하고, 더 빠르고 효율적인 데이터 처리를 가능하게 합니다. 연구실은 메모리 계층 구조의 혁신을 통해, 캐시 및 메모리 서브시스템의 병목 현상을 해소하고, DRAM의 대역폭과 용량을 극대화하는 방안을 모색합니다. 또한, 컴퓨터 비전과 머신러닝을 위한 아키텍처적 지원, 그리고 보안 강화 기술도 함께 연구하여, 신뢰성과 안전성이 보장되는 시스템을 구축합니다. ASIC 및 FPGA 프로토타이핑을 활용한 실험적 접근을 통해, 실제 하드웨어 구현까지 아우르는 폭넓은 연구를 수행하고 있습니다. 이러한 연구는 대규모 생성형 AI 모델, 그래프 신경망, 추천 시스템 등 다양한 응용 분야에 적용되고 있습니다. VIA 연구실의 고성능 컴퓨터 아키텍처 연구는 미래 지능형 시스템의 기반을 마련하며, 산업계와 학계 모두에서 높은 평가를 받고 있습니다.
2
머신러닝 및 인공지능 가속기 설계
VIA 연구실은 머신러닝 및 인공지능 모델의 효율적인 실행을 위한 하드웨어 가속기 설계에 집중하고 있습니다. 신경망 처리 장치(NPU), 스파스 CNN 가속기, 그래프 신경망(GNN) 가속기 등 다양한 도메인 특화 하드웨어를 개발하여, 대규모 데이터와 복잡한 모델을 빠르고 에너지 효율적으로 처리할 수 있도록 지원합니다. 이러한 가속기 설계는 자율주행, 자연어 처리, 음성 인식 등 첨단 AI 응용 분야에서 핵심적인 역할을 합니다. 연구실은 하드웨어-소프트웨어 협업 설계(Hardware-Software Co-Design) 방식을 적극적으로 도입하여, 알고리즘과 시스템 아키텍처를 동시에 최적화합니다. 예를 들어, 프라이버시 보호 머신러닝, 차등 개인정보 보호, 대규모 추천 시스템 등 실제 산업 현장에서 요구되는 다양한 문제를 해결하기 위해, 알고리즘과 하드웨어의 상호작용을 정밀하게 분석하고 최적화합니다. 또한, FPGA 및 ASIC 기반의 프로토타입 구현을 통해, 연구 결과의 실효성을 검증하고 있습니다. 이러한 연구는 대규모 생성형 AI 모델, 텍스트-이미지 변환, 3D 렌더링, 추천 시스템 등 다양한 최신 AI 워크로드에 적용되고 있습니다. VIA 연구실의 인공지능 가속기 설계 연구는 AI 시대의 핵심 인프라를 제공하며, 국내외 유수의 기업 및 연구기관과의 협력을 통해 실질적인 기술 혁신을 이끌고 있습니다.
3
메모리 중심의 고성능 컴퓨팅 및 PIM(Processing-in-Memory)
VIA 연구실은 메모리 중심의 고성능 컴퓨팅 시스템과 PIM(Processing-in-Memory) 기술 개발에 선도적인 역할을 하고 있습니다. 대규모 딥러닝 및 그래프 신경망 학습에서 발생하는 메모리 용량 및 대역폭 한계를 극복하기 위해, 메모리와 프로세서의 경계를 허무는 새로운 시스템 아키텍처를 연구합니다. DRAM 기반 고성능 PIM 메모리 반도체, 데이터 근접 프로세싱, 분산 메모리 시스템 등 다양한 기술을 통해, 대규모 데이터 처리의 효율성을 극대화하고 있습니다. 연구실은 상용 PIM 시스템의 데이터 전송 병목 현상 분석, 메모리 계층 내 텐서 연산 가속, 임베딩 벡터의 효율적 저장 및 처리 등 실질적인 문제 해결에 집중합니다. 또한, 비휘발성 메모리(NVM)와 SSD를 활용한 대규모 그래프 신경망 학습, 메모리 확장 시스템, 그리고 메모리-프로세서 인터페이스 최적화 등 다양한 연구를 수행하고 있습니다. 이러한 연구는 실제 산업 현장에서 요구되는 대규모 데이터 처리와 AI 학습의 생산성을 크게 향상시킵니다. PIM 및 메모리 중심 컴퓨팅 연구는 차세대 AI 반도체, 데이터센터, 클라우드 인프라 등 다양한 분야에 적용되고 있습니다. VIA 연구실은 국내외 주요 연구 프로젝트와 협력하며, 메모리와 컴퓨팅의 융합을 통한 혁신적인 시스템 아키텍처를 제시하고 있습니다.