기본 정보
연구 분야
프로젝트
발행물
구성원
연구 영역
대표 연구 분야
연구실이 가장 잘하는 대표 연구 분야
1

자연어처리와 대규모 언어모델

이 연구 주제는 자연어처리 기술을 바탕으로 대규모 언어모델의 이해, 학습, 활용 방식을 고도화하는 데 초점을 둔다. 연구실은 문장 표현 학습, 한국어 처리, 다중 의도 감지, 의미역 분석, 기계 독해, 프로그램 합성 성능 분석 등 다양한 언어이해 문제를 다루며, 실제 언어 데이터에서 발생하는 모호성·생략·상호참조 같은 복합적인 현상을 해결하고자 한다. 특히 영어 중심의 기존 연구 흐름을 넘어 한국어 환경에서 성능과 효율을 동시에 확보하는 방향을 중요하게 다룬다. 방법론적으로는 프롬프팅, 어댑터, 중간층 삽입 구조, 대조학습 기반 표현학습, 교차언어 전이, 비지도 학습 등 효율적인 모델 적응 기법을 폭넓게 탐구한다. 이는 대규모 언어모델을 단순히 더 크게 만드는 접근이 아니라, 제한된 자원에서도 고품질 문장 표현과 안정적인 추론 성능을 얻기 위한 전략으로 볼 수 있다. 연구실의 프로젝트와 학회 발표 이력을 보면 한국어 문장 표현 학습, 다중 레이블 분류, 표 설명 생성, 관용성 탐지 등 실제 응용 과제를 통해 방법론의 일반성을 검증하고 있다. 이 연구는 향후 한국어 중심 인공지능 생태계 확장에 중요한 기반이 된다. 고품질 언어모델이 구축되면 대화 시스템, 문서 분석, 검색, 교육, 코딩 보조, 지식 서비스 등 여러 분야에 즉시 연결될 수 있으며, 특히 한국어의 언어적 특성을 정교하게 반영한 모델 설계에 기여할 수 있다. 또한 효율적인 학습 및 적응 기술은 산업 현장에서의 비용 절감과 성능 향상이라는 실질적 이점을 제공해 연구와 응용의 간극을 줄이는 역할을 한다.

자연어처리거대언어모델문장표현학습한국어처리대조학습
2

초장기기억 기반 대화형 에이전트

이 연구 주제는 사용자와 장기간 상호작용하면서도 일관성과 개인화를 유지할 수 있는 대화형 에이전트의 핵심 구조를 설계하는 데 목적이 있다. 일반적인 대화 시스템은 세션 단위의 단기 문맥에는 강하지만, 장기간 축적되는 사용자 선호, 과거 대화 맥락, 행동 패턴, 변화하는 관심사를 안정적으로 반영하는 데 한계가 있다. 연구실은 이러한 한계를 극복하기 위해 초장기기억 개념을 정의하고, 개인 사용자에게 최적화된 상호작용 경험을 지속적으로 제공하는 기술을 탐구한다. 핵심 방법은 기억의 저장, 검색, 갱신, 망각을 포함한 구조적 메모리 설계와 지식-기억 충돌 문제 해결에 있다. 사용자의 과거 정보가 새로운 사실과 충돌하거나, 오래된 선호가 현재 상황과 맞지 않는 경우를 다루기 위해 기억의 신뢰도와 시간적 맥락을 함께 고려하는 접근이 필요하다. 여기에 자기 지속 학습 개념을 접목하면 에이전트는 단순 질의응답을 넘어 사용자와 함께 진화하는 시스템으로 발전할 수 있다. 이는 LLM 기반 대화 시스템의 한계인 환각, 일관성 저하, 장기 맥락 손실을 보완하는 방향과도 맞닿아 있다. 이 연구의 파급효과는 매우 크다. 개인 비서, 교육 튜터, 헬스케어 상담, 고객지원, 디지털 동반자 등 장기간 관계 형성이 중요한 서비스에서 초장기기억 기반 대화형 에이전트는 기존 시스템보다 훨씬 높은 만족도와 유용성을 제공할 수 있다. 더 나아가 사용자 중심 AI의 핵심 과제인 개인화·지속성·신뢰성 문제를 동시에 다룬다는 점에서, 차세대 인간중심 인공지능 서비스의 기반 기술로 확장될 가능성이 높다.

대화형에이전트초장기기억개인화자기지속학습지식충돌
3

지식그래프와 구조 인식 언어모델 추론

이 연구 주제는 언어모델이 텍스트 정보뿐 아니라 지식그래프의 구조적 특성까지 함께 활용하도록 만드는 데 중점을 둔다. 기존의 사전학습 언어모델 기반 지식그래프 완성 기법은 주로 엔티티와 관계의 텍스트 표현에 의존하는 경우가 많아, 지식그래프가 본질적으로 가지는 연결 구조와 희소성, 장꼬리 분포를 충분히 반영하지 못하는 문제가 있었다. 연구실은 이러한 한계를 해결하기 위해 서브그래프, 경로, 노드 차수 같은 구조 정보를 학습 과정에 통합하는 방향을 제시한다. 구체적으로는 서브그래프 기반 미니배칭, 구조 인식 대조학습, 어려운 양성·음성 샘플을 구분하는 학습 전략 등이 핵심이다. 이러한 방법은 단순히 더 많은 데이터를 넣는 방식이 아니라, 그래프 내에서 실제로 구별하기 어려운 사례를 중심으로 표현 공간을 정교하게 형성하도록 유도한다. 특히 구조적 귀납편향을 언어모델 미세조정에 반영하면, 드물게 등장하는 엔티티나 복잡한 관계 패턴에서도 더 안정적인 추론이 가능해진다. 이는 언어모델과 그래프 학습을 결합한 하이브리드 AI 연구의 중요한 흐름으로 평가할 수 있다. 이 연구는 지식 기반 질의응답, 추천 시스템, 정보검색, 과학지식 발견, 엔터프라이즈 지식관리 등 다양한 응용으로 이어질 수 있다. 언어모델이 지식의 표면적 서술뿐 아니라 구조적 맥락까지 이해하게 되면, 보다 정확하고 설명 가능한 추론이 가능해진다. 장기적으로는 텍스트 중심 AI와 구조화 지식 기반 AI를 연결하는 핵심 기술로 작동하며, 신뢰도 높은 지능형 시스템 구현에 기여할 수 있다.

지식그래프대조학습구조인식언어모델지식완성
4

언어모델의 적응형 추론과 자기 신뢰도 활용

이 연구 주제는 언어모델이 문제를 해결할 때 필요한 만큼만 추론하도록 제어하는 적응형 추론 방법을 다룬다. 최근 언어모델은 긴 추론 과정을 통해 복잡한 문제에서 높은 성능을 보이지만, 항상 긴 추론이 좋은 것은 아니다. 너무 이른 종료는 정답 도달 실패로 이어지고, 반대로 불필요하게 긴 추론은 계산 비용을 높이며 오히려 성능 저하를 초래할 수 있다. 연구실은 이러한 과소추론과 과잉추론 사이의 균형을 찾기 위해 모델의 자기 평가 신호를 활용하는 접근을 탐구한다. 핵심 아이디어는 추론 중간 단계에서 모델이 자신의 확신도를 평가하고, 충분한 신뢰 수준에 도달하면 추론을 멈추도록 하는 것이다. 이는 단순한 후처리 규칙이 아니라, 모델 내부 신호를 이용해 추론 깊이를 동적으로 조절하는 메커니즘이다. 특히 강화학습 기반으로 학습된 추론 모델의 신뢰도 추정이 일반 언어모델보다 더 믿을 만하다는 관찰은, 향후 계산 효율과 응답 품질을 동시에 개선할 수 있는 중요한 단서를 제공한다. 이런 접근은 추론 길이 최적화, 비용 절감, 안정적 응답 생성 측면에서 실용성이 높다. 이 연구는 고성능 언어모델이 실제 서비스에 투입될 때 매우 중요한 의미를 가진다. 제한된 시간과 자원 안에서 정확한 답변을 제공해야 하는 검색, 코딩 보조, 의사결정 지원, 교육용 튜터링 시스템 등에서 적응형 추론은 직접적인 경쟁력이 된다. 또한 모델이 자신의 상태를 점검하고 제어한다는 점에서, 보다 자율적이고 신뢰 가능한 인공지능으로 발전하는 기반 기술이 될 수 있다.

적응형추론자기신뢰도언어모델추론최적화강화학습