기본 정보
연구 분야
프로젝트
발행물
구성원
연구 영역
대표 연구 분야
연구실이 가장 잘하는 대표 연구 분야
1

대규모 기계학습 최적화와 신경망 해석

이 연구실은 대규모 기계학습 환경에서 신경망을 더 효율적으로 학습시키고, 동시에 그 작동 원리를 신뢰성 있게 이해할 수 있도록 만드는 문제를 핵심 주제로 다룬다. 특히 대형 모델이 커질수록 발생하는 학습 비효율, 일반화 성능 저하, 계산 자원 소모 문제를 해결하기 위해 최적화 이론과 실제 학습 알고리즘을 함께 발전시키는 접근을 취한다. 관련 프로젝트에서도 대규모 컴퓨팅 자원 환경에서의 성능 손실 문제, 뉴럴 스케일링 한계를 넘는 학습 전략, 구조화된 신경망 최적화 등이 중요한 목표로 제시되어 있다. 방법론 측면에서는 sharpness-aware minimization, 블록 단위 적응 최적화, 하이퍼파라미터 메타러닝, 데이터 선택 및 영향도 추정 등 학습 전반을 개선하는 기술이 폭넓게 등장한다. 또한 그래프 신경망, 시계열 모델, 확률적 모델, 베이지안 관점의 신경망 분석 등 다양한 모델 계열에 대해 공통적으로 적용 가능한 원리와 알고리즘을 연구한다. 단순히 정확도를 높이는 데 그치지 않고, 학습 과정에서 어떤 샘플과 구조가 성능에 영향을 주는지 정량적으로 분석하여 모델 개선으로 연결하는 것이 특징이다. 해석가능성과 신뢰성 역시 이 연구 축의 중요한 부분이다. 연구실은 신경망 압축 과정에서도 속성이나 기여도 정보가 보존되도록 하는 기술, 플러그앤플레이 방식으로 재학습 없이 설명을 제공하는 설명가능 인공지능 기술, 시계열 설명을 위한 temporality-aware 기법 등을 발전시키고 있다. 이는 의료, 보안, 산업 현장처럼 오류 비용이 큰 영역에서 AI를 안전하게 활용하기 위한 기반이 되며, 향후에는 대형 멀티모달 모델과 자율적 의사결정 시스템의 검증 가능성을 높이는 방향으로 확장될 가능성이 크다.

대규모학습최적화해석가능성신경망신뢰성
2

초거대언어모델과 멀티모달 인공지능

이 연구실은 초거대언어모델과 멀티모달 인공지능을 차세대 핵심 플랫폼으로 보고, 언어·시계열·영상·음성·표 데이터가 결합된 복합 문제를 해결하는 연구를 수행한다. 최근 논문에서는 시계열 데이터를 언어적 구조와 결합해 대규모 언어모델이 분류 문제를 수행하도록 만드는 방법을 제안하였고, 프로젝트 측면에서도 초거대언어모델의 고도 추론, 도메인 특화, 멀티모달 확장, 신뢰성 확보가 주요 목표로 제시되어 있다. 이는 언어모델을 단순 텍스트 생성기를 넘어 범용 추론 엔진으로 확장하려는 연구 방향을 보여준다. 세부적으로는 언어모델 압축과 지식 증류, 비전-언어 모델 정렬, 텍스트 기반 이미지 편집, 의료 사전 문진용 LLM, 시각적으로 존재하지 않는 토큰에 대한 LVLM 반응 분석, 의료 및 보안 분야를 위한 멀티모달 시스템 등 폭넓은 주제가 포함된다. 특허에서도 언어 컨텍스트 기반 지식 증류 기술이 확인되며, 이는 대형 모델의 성능을 유지하면서도 경량화와 실용성을 확보하려는 흐름과 연결된다. 또한 비전-언어 모델 기반 영상보안 관제 과제는 실시간 객체 관계 이해와 자연어 질의응답이 가능한 현장형 AI 개발을 목표로 하고 있어 연구실의 응용 지향성을 잘 보여준다. 이 연구의 강점은 서로 다른 데이터 양식을 하나의 표현 공간이나 추론 체계로 연결한다는 점이다. 언어적 scaffold를 활용한 시계열 분류, 멀티모달 의료 데이터 활용, 음성 합성의 스타일 제어 및 적응형 TTS 등은 모두 표현학습과 추론의 공통 원리를 기반으로 한다. 앞으로 이러한 연구는 범용 AI, 의료 AI, 영상보안, 인간-컴퓨터 상호작용 같은 영역에서 더 높은 이해 가능성과 실시간성, 그리고 사용자 맞춤형 응답 능력을 갖춘 시스템으로 발전할 가능성이 높다.

초거대언어모델멀티모달비전언어모델지식증류시계열
3

연합학습·메타학습과 실세계 적응형 AI

이 연구실은 데이터가 분산되어 있거나 레이블이 부족하고, 환경이 지속적으로 변하는 실세계 조건에서 동작하는 적응형 AI를 중요한 연구 주제로 다룬다. 이러한 문제의식은 연합학습, 메타학습, 지속학습, 테스트타임 적응, 도메인 일반화 등으로 구체화되며, 실제 프로젝트에서도 실세계 적용 가능한 메타학습 기술 개발이 핵심 과제로 수행되고 있다. 연구실은 실험실 환경에서만 잘 작동하는 알고리즘이 아니라, 이질적이고 불완전한 데이터 환경에서도 성능을 유지하는 학습 체계를 지향한다. 대표적으로 연합학습 환경에서 확산모델을 학습하는 VQ-FedDiff 연구는 민감한 데이터를 중앙으로 모으지 않고도 고품질 생성모델을 학습하도록 설계되었다. 이와 함께 federated semi-supervised learning, federated continual learning, inter-client consistency, personalized conditioning 같은 주제는 기관별 데이터 편차와 개인정보 보호 이슈를 함께 다룬다. 메타학습 측면에서는 대규모·비지도·멀티모달·크로스도메인 메타학습을 통해 적은 데이터와 새로운 태스크에도 빠르게 적응하는 방법을 탐구하고, 지속학습에서는 모델 확장과 선택적 재학습으로 새로운 과제를 안정적으로 흡수하는 방법을 연구한다. 이러한 연구는 의료, 금융, 보안, 산업 현장처럼 데이터 공유가 어려운 분야에서 특히 중요하다. 연구실은 단순한 성능 향상보다 데이터 분포 변화, 불균형, 희소성, 도메인 이동, 개인정보 보호라는 현실적 제약을 정면으로 다루며, 이를 위해 생성모델·그래프모델·언어모델·확률모델을 유연하게 결합한다. 결과적으로 이 연구 축은 안전하고 개인화되며, 환경 변화에 강한 AI를 구축하기 위한 기반 기술을 제공하며, 미래의 분산형 지능 시스템과 현장형 AI 서비스에 직접 연결될 수 있다.

연합학습메타학습지속학습도메인적응개인정보보호