한국어 자연어처리와 전이학습 기반 언어모델
이 연구 주제는 한국어 자연어처리의 핵심 과제를 효과적으로 해결하기 위해 전이학습과 사전학습 언어모델을 활용하는 방향에 초점을 둔다. 연구실은 한국어 환경에서 활용 가능한 범용 딥러닝 모델을 구축하고, 개체명 인식, 기계독해, 요약, 시퀀스 라벨링 등 다양한 하위 과제에 공통적으로 적용될 수 있는 학습 구조를 탐구한다. 특히 영어 중심으로 발전해 온 언어모델 연구를 한국어의 형태적·구문적 특성에 맞추어 재설계하고, 제한된 자원 환경에서도 높은 성능을 낼 수 있는 방법론을 개발하는 데 강점을 가진다. 구체적으로는 BERT 계열의 사전학습 모델과 Transformer 구조를 중심으로, 단일 모델 선택에 의존하지 않고 여러 한국어 사전학습 모델의 장점을 결합하는 접근을 시도한다. 대표적으로 한국어 추상적 문서 요약에서는 멀티 인코더 Transformer를 활용하여 KoBERT, HanBERT, KorBERT 등 상이한 특성을 가진 모델 표현을 동시에 활용하는 방법을 제안하였다. 이는 한국어 뉴스, 법률 문서와 같은 실제 데이터셋에서 단일 인코더 기반 모델보다 우수한 성능을 보이며, 한국어 텍스트 생성과 이해를 동시에 강화하는 방향성을 제시한다. 이 연구는 한국어 인공지능의 실용성을 높이는 기반 기술이라는 점에서 의미가 크다. 범용 한국어 모델이 정교해질수록 검색, 요약, 질의응답, 문서 분석, 행정·법률 자동화 등 다양한 응용 분야에서 정확도와 효율성이 향상될 수 있다. 또한 데이터가 충분하지 않은 한국어 응용 환경에서도 전이학습을 통해 성능을 확보할 수 있기 때문에, 향후 한국어 특화 LLM, 도메인 적응형 모델, 저자원 언어처리 기술로 확장될 가능성이 높다.
정보추출과 시퀀스 라벨링을 위한 구조적 학습
이 연구 주제는 문장에서 의미 있는 정보를 정밀하게 추출하기 위한 시퀀스 라벨링과 슬롯 필링 문제를 중심으로 전개된다. 자연어 이해 시스템에서 개체명 인식, 구문 단위 식별, 의도-슬롯 분석은 핵심 기술이며, 연구실은 단어 단위 예측을 넘어서 구간(segment)과 문맥(context)을 함께 고려하는 모델링 전략을 발전시켜 왔다. 이는 단순한 분류를 넘어 문장 내부의 구조적 관계를 파악하고, 복수 토큰으로 이루어진 의미 단위를 안정적으로 인식하는 데 목적이 있다. 대표 연구로는 BiLSTM-CRF 기반 시퀀스 라벨링 구조에 segment-level LSTM을 추가하여 인접 구간 문맥을 학습하는 방법이 있다. 이 접근은 IOB/IOBES 형식의 주석 정보를 적극적으로 활용해, 단어 하나하나가 아니라 의미 구간 전체의 맥락을 반영한다는 점에서 차별적이다. 또한 음성언어이해 분야의 슬롯 필링에서는 조건부 변분 오토인코더를 이용한 발화 생성 기법을 제안하여, 제한된 라벨 데이터 문제를 완화하고 다양한 슬롯 조합을 학습 데이터에 반영할 수 있도록 하였다. 이러한 연구는 정보추출 성능 향상뿐 아니라 데이터 부족 문제 해결에도 직접적으로 기여한다. 이 주제의 확장성은 매우 높다. 고객 상담 자동화, 음성 비서, 예약 시스템, 검색 질의 해석, 대화형 에이전트 등 실제 산업 환경에서는 세밀한 슬롯 추출과 문맥 이해가 서비스 품질을 좌우한다. 연구실의 구조적 학습 및 데이터 증강 연구는 저자원 환경에서도 강건한 자연어 이해를 가능하게 하며, 향후 LLM 기반 정보추출, 멀티도메인 대화 시스템, 도메인 적응형 NLU 모델로 자연스럽게 이어질 수 있다.
거대 언어모델 기반 키워드 생성과 프롬프팅 최적화
이 연구 주제는 거대 언어모델의 창발적 능력을 활용하여 키워드 생성, 키프레이즈 추출, 슬롯 필링과 같은 생성·추론형 자연어처리 문제를 개선하는 데 초점을 둔다. 연구실은 제로샷과 퓨샷 환경에서 LLM이 얼마나 효과적으로 핵심 정보를 추출하고 구조화할 수 있는지 분석하며, 단순히 모델 규모에 의존하기보다 프롬프트 설계와 추론 전략을 정교화하는 방향으로 연구를 전개하고 있다. 이는 학습 데이터가 부족하거나 도메인 확장이 잦은 실제 환경에서 특히 중요한 접근이다. 최근 연구에서는 슬롯 필링을 위한 diversified prompting strategy를 제안하여, 하위 슬롯 집합으로 분할하는 sub-prompt와 서로 다른 구조를 가진 multi-view prompt를 결합하였다. 이를 통해 누락으로 인한 재현율 저하와 중복 예측으로 인한 정밀도 저하를 동시에 완화하고, 최종적으로 다수결 기반의 통합 예측을 수행한다. 또한 국제학회 발표를 통해 zero-shot keyphrase extraction, 저자원 keyphrase generation, self-attention map을 이용한 비지도 키프레이즈 추출 등 LLM 및 사전학습 모델을 활용한 핵심어 생성 연구를 지속적으로 확장하고 있다. 이 연구는 문서 분석, 학술정보 관리, 검색엔진 최적화, 추천 시스템, 기업 지식관리, 대화형 AI 등 다양한 응용 분야와 밀접하게 연결된다. 특히 별도의 대규모 라벨링 없이도 높은 수준의 키워드 생성과 정보 구조화가 가능해지면, 실제 서비스 개발 비용을 줄이면서도 적용 범위를 넓힐 수 있다. 향후에는 한국어 특화 프롬프팅, 도메인별 키워드 표준화, 평가 자동화, 인간-LLM 협업 기반 지식추출 시스템으로 발전할 가능성이 크다.