대표 연구 분야
설명가능하고 신뢰할 수 있는 대규모 AI 모델의 접근성, 확장성, 신뢰성 연구
상세 설명
현대의 대규모 인공지능 모델, 특히 딥 뉴럴 네트워크는 복잡성과 규모가 커짐에 따라 그 내부에 축적된 지식을 이해하고 활용하는 것이 점점 더 중요해지고 있습니다. 본 연구실은 학습된 신경망 내부의 지식을 효과적으로 추출, 재사용, 설명할 수 있는 기술을 개발하고, 이를 통해 AI 모델의 접근성(accessibility), 확장성(scalability), 신뢰성(reliability)을 높이는 연구를 수행하고 있습니다. 구체적으로, 신경망이 학습한 지식을 외부에서 해석하고, 사용자가 원하는 태스크에 맞게 재활용하거나, 잘못 학습된 편향된 지식을 탐지 및 수정하는 방법론을 제안합니다. 또한, 모델이 새로운 데이터를 지속적으로 받아들이면서도 기존의 지식을 잃지 않도록 하는 증분학습 및 온라인 학습 알고리즘을 개발하고 있습니다. 이러한 연구는 AI 시스템이 실제 환경에서 신뢰받고 투명하게 동작할 수 있도록 하는 데 필수적입니다. 설명가능 인공지능(XAI)과 상호작용형 AI 서비스도 주요 연구 주제로, 인간과 자연스럽게 소통하며 의사결정 과정을 설명할 수 있는 인터페이스 개발에 집중하고 있습니다. 이를 통해 AI의 투명성과 신뢰성을 높이고, 다양한 산업 및 사회적 문제 해결에 기여하고자 합니다.
키워드
관련 이미지
관련 자료