무선통신 및 이동통신 시스템
이 연구 주제는 무선통신과 이동통신의 핵심 이론 및 시스템 설계를 중심으로, 다중안테나 기반 전송기술, 채널 추정, 스케줄링, 전력 할당, 간섭 관리 등 차세대 통신망의 성능을 결정하는 핵심 문제를 다룬다. 연구실 데이터에서는 교수의 대표 연구키워드가 무선통신·이동통신으로 명시되어 있으며, 경력 또한 Bell Labs와 David Sarnoff Research Center, 서울대학교 전기·정보공학부에서의 장기간 연구를 통해 통신 이론과 실용 시스템을 함께 축적해 온 흐름을 보여준다. 이는 연구실의 정체성이 전통적인 통신공학 기반 위에 세워져 있음을 시사한다. 구체적으로는 MIMO, Massive MIMO, MU-MIMO, 밀리미터파 채널 추정, 코드북 설계, 제한된 피드백 환경에서의 송수신 기법, OFDM/OFDMA 기반 링크 적응, 셀룰러 네트워크에서의 자유도 분석과 간섭 정렬 같은 주제들이 폭넓게 포함된다. 특허에서도 다중 사용자 MIMO 시스템, 대규모 미모 시스템의 송수신 방법 등이 확인되며, 다수의 학술발표에서는 Massive MIMO, millimeter wave communications, full-duplex cellular networks, limited feedback, beamforming, relay networks, spectrum sensing 등이 반복적으로 나타난다. 이는 이론적 성능 한계 분석과 실제 전송 알고리즘 개발이 함께 진행되는 연구 구조를 의미한다. 이 연구는 5G/6G 이동통신, 위성-지상 통합망, 고밀도 셀룰러 환경, 고신뢰·고효율 무선 접속 기술로 직접 연결될 수 있다는 점에서 높은 파급력을 가진다. 특히 대규모 안테나와 복잡한 채널 환경에서 효율적인 피드백, 정밀한 채널 추정, 간섭 완화와 같은 문제는 향후 초연결 네트워크의 성능 병목을 좌우한다. 따라서 본 연구실의 무선통신 연구는 통신이론, 신호처리, 시스템 최적화가 결합된 형태로 차세대 이동통신 인프라의 기반 기술을 발전시키는 역할을 수행한다고 볼 수 있다.
AI 기반 통신 최적화와 시맨틱 통신
연구실의 최근 연구 흐름에서는 인공지능을 통신 시스템 설계와 최적화에 적극적으로 접목하는 방향이 뚜렷하게 확인된다. 단순히 통신 데이터를 분류하거나 예측하는 수준을 넘어, 강화학습과 신경망을 이용해 전송 전략, 자원 할당, 표현 압축, 복원 구조를 공동으로 설계하는 연구가 확대되고 있다. 특히 최근 학회 발표에서 디지털 시맨틱 통신, residual vector quantization, neural and quantum transcoding, 일반화 성능 보장을 위한 학습 시스템 설계 등이 등장하는 점은 연구실이 기존 통신공학을 지능형 통신 패러다임으로 확장하고 있음을 보여준다. 이 주제에서는 채널 잡음과 제한된 대역폭 환경에서도 의미 정보를 효율적으로 전달하기 위한 종단간 학습 기반 통신 구조가 핵심이 된다. 벡터 양자화, 오류 보호 프레임워크, 신경망 기반 인코딩 및 디코딩, 표현 공간 압축, 학습 가능한 전송 구조 등이 중요한 기술 요소이며, 이러한 접근은 기존 비트 중심 통신을 의미 중심 통신으로 전환하는 기반이 된다. 또한 에너지 하베스팅 채널, NOMA 기반 시스템, 위성통신, IRS 보조 저궤도 위성통신 등에서도 강화학습 또는 신경망 기반 최적화 연구가 보이며, 이는 복잡한 무선 환경에서 AI 기반 의사결정이 효과적임을 시사한다. 이 연구의 의의는 미래 통신이 단순한 전송 효율 경쟁을 넘어, 학습 가능한 적응형 네트워크와 의미 중심 정보 전달로 진화하는 데 있다. 시맨틱 통신은 멀티모달 AI, 자율 시스템, 저지연 인간-기계 상호작용과 밀접하게 연결되며, 앞으로 6G의 핵심 서비스 기술 중 하나로 주목받는다. 본 연구실은 통신이론과 인공지능을 결합하여, 학습 기반 최적화와 의미 정보 전달을 동시에 다루는 융합형 연구를 수행하는 것으로 해석할 수 있다.
AI 반도체 기반 저전력 학습·추론 및 모델 최적화
연구실 데이터의 대형 국가과제와 산학협력 프로젝트를 보면, 최근에는 AI 반도체 환경에서의 저전력 학습·추론 기술과 모델 최적화가 중요한 축으로 부상하고 있다. 특히 AI 반도체 기반 저전력 학습/추론 기술 개발, 이종 AI반도체용 분산 추론 및 모델 최적화, 가속기 최적화 기반 인공신경망 자동생성 기술 등의 과제는 연구실이 통신 중심 연구에서 나아가 AI 시스템의 계산 효율성과 하드웨어 적합성까지 확장하고 있음을 보여준다. 이는 정보통신기술 분야에서 매우 실용적인 연구 방향이다. 세부적으로는 NPU, PIM, 이종 가속기 환경에서의 모델 경량화, 양자화, 하이퍼파라미터 최적화, 구조 탐색, 자동 모델 생성, 분산 추론, LLM 및 RAG 서비스 최적화가 핵심 주제로 나타난다. 관련 특허 중 인공 신경망 기반 예측 모델 생성 장치 및 방법 역시 이러한 흐름과 맞닿아 있으며, 실제로 오픈소스 LLM 모델의 전력 효율 개선과 클라우드 기반 자동화 플랫폼 개발을 목표로 하는 프로젝트는 연구실이 알고리즘-시스템-플랫폼을 포괄적으로 다룬다는 점을 보여준다. 즉, 소프트웨어 모델 설계와 하드웨어 실행 효율을 함께 고려하는 전주기적 최적화가 특징이다. 이 연구는 거대언어모델과 생성형 AI의 확산으로 급격히 증가하는 전력 소모와 인프라 비용 문제를 해결하는 데 직접적인 기여를 할 수 있다. 특히 실제 산업 현장에서는 정확도 향상만큼이나 추론 속도, 메모리 사용량, 에너지 효율, 배포 용이성이 중요하며, AI 반도체 친화적 모델 설계는 이러한 요구를 충족시키는 핵심 기술이다. 따라서 본 연구실의 AI 반도체 및 저전력 추론 연구는 차세대 지능형 서비스의 실용화와 고도화를 위한 시스템 수준의 기반 기술로 평가할 수 있다.