조현석 연구실
소프트웨어학과 조현석
조현석 연구실은 소프트웨어학과를 기반으로 인공지능, 기계학습, 그리고 지식처리 분야의 첨단 연구를 선도하고 있습니다. 본 연구실은 대규모 데이터로부터 의미 있는 정보를 추출하고, 이를 바탕으로 다양한 문제를 해결하는 기계학습 및 지식처리 기술 개발에 집중하고 있습니다. 특히, 추천 시스템, 감정 인식, 지식 추출 등 실생활에 밀접하게 연관된 응용 분야에서 혁신적인 연구 성과를 내고 있습니다.
연구실의 주요 연구 주제 중 하나는 멀티모달 데이터 처리입니다. 텍스트, 이미지, 오디오 등 다양한 형태의 데이터를 통합적으로 분석하여, 기존 단일 데이터 기반 접근법의 한계를 극복하고 있습니다. 이를 통해 감정 인식, 사용자 맞춤형 추천, 옴니데이터 기반 인과 추론 등 다양한 분야에서 새로운 가능성을 제시하고 있습니다.
또한, 본 연구실은 실제 산업 현장에서 활용 가능한 기술 개발에도 주력하고 있습니다. 다수의 특허와 논문, 그리고 국내외 주요 학회에서의 활발한 연구 발표를 통해, 이론적 연구와 실용적 응용을 동시에 추구하고 있습니다. 예를 들어, 머신러닝 기반 흡입 효율 예측 시스템, 멀티모달 감정 인식 장치, 이미지 결합 방법 등 다양한 혁신적 기술이 특허로 등록되어 있습니다.
연구실은 정보통신기획평가원 등 다양한 기관과의 협력 프로젝트를 통해, 복잡한 인과 관계 이해, 옴니데이터 기반 추론 프레임워크 개발 등 첨단 연구를 진행하고 있습니다. 이러한 연구는 인공지능 기술의 발전뿐만 아니라, 사회 전반의 문제 해결에도 크게 기여하고 있습니다.
앞으로도 조현석 연구실은 기계학습, 멀티모달 데이터 처리, 지식처리 등 핵심 연구 분야에서 세계적인 경쟁력을 갖춘 연구 성과를 창출하고, 인공지능 기반의 미래 사회를 선도하는 연구실로 성장해 나갈 것입니다.
기계학습 및 지식처리
기계학습 및 지식처리는 대량의 데이터를 바탕으로 컴퓨터가 스스로 패턴을 학습하고, 이를 통해 다양한 문제를 해결하는 기술입니다. 본 연구실에서는 추천 시스템, 감정 인식, 지식 추출 등 다양한 응용 분야에서 기계학습 알고리즘을 개발하고 있습니다. 특히, 시계열 데이터와 멀티모달 데이터를 효과적으로 처리하기 위한 새로운 모델 구조와 학습 방법론에 집중하고 있습니다.
연구실의 대표 논문과 특허를 살펴보면, 순차적 추천 시스템에서의 부가 정보 융합, 멀티모달 감정 인식, 그리고 공간적 엔티티 추출 등 다양한 영역에서 기계학습의 혁신적인 적용 사례를 확인할 수 있습니다. 예를 들어, 'Exploring the Side-information Fusion for Sequential Recommendation' 논문에서는 추천 시스템의 정확도를 높이기 위해 다양한 부가 정보를 효과적으로 결합하는 방법을 제안하였고, 'Cross-Modal Dynamic Transfer Learning for Multimodal Emotion Recognition' 논문에서는 텍스트, 이미지, 오디오 등 여러 형태의 데이터를 통합하여 감정을 인식하는 기술을 개발하였습니다.
이러한 연구는 실제 산업 현장에서도 높은 활용 가치를 지니고 있습니다. 예를 들어, 게임, 헬스케어, 미디어 등 다양한 분야에서 사용자 맞춤형 서비스 제공, 자동화된 의사결정 지원, 그리고 인간-컴퓨터 상호작용의 질적 향상에 기여하고 있습니다. 앞으로도 본 연구실은 기계학습 및 지식처리 분야에서 이론적 연구와 실용적 응용을 동시에 추구하며, 인공지능 기술의 발전을 선도할 것입니다.
멀티모달 데이터 처리 및 감정 인식
멀티모달 데이터 처리는 텍스트, 이미지, 오디오 등 다양한 형태의 데이터를 통합적으로 분석하는 기술로, 최근 인공지능 분야에서 큰 주목을 받고 있습니다. 본 연구실은 멀티모달 감정 인식, 멀티모달 지식 추출, 그리고 옴니데이터 기반의 인과 추론 등 다양한 주제를 중심으로 연구를 진행하고 있습니다. 특히, 서로 다른 데이터 소스 간의 상호작용을 효과적으로 모델링하여, 기존 단일 모달리티 기반 접근법보다 더 높은 정확도와 신뢰성을 확보하는 데 주력하고 있습니다.
최근 발표된 논문과 특허에서는 멀티모달 감정 인식 장치 및 방법, 이미지 결합 기술, 그리고 음악 오디오 표현 학습 등 다양한 응용 사례가 소개되고 있습니다. 예를 들어, '멀티모달 감정 인식 장치, 방법 및 기록매체' 특허에서는 텍스트와 음성, 이미지 정보를 결합하여 사용자의 감정을 정밀하게 분석하는 시스템을 제안하였으며, 'OmniStitch: Depth-Aware Stitching Framework for Omnidirectional Vision with Multiple Cameras'와 같은 연구에서는 다수의 카메라로부터 얻은 데이터를 통합하여 360도 시각 정보를 효과적으로 처리하는 기술을 개발하였습니다.
이러한 멀티모달 데이터 처리 기술은 인간-컴퓨터 상호작용, 감정 기반 추천 시스템, 의료 영상 분석, 자율주행 등 다양한 분야에 적용될 수 있습니다. 앞으로 본 연구실은 멀티모달 데이터의 융합과 해석에 관한 이론적 연구와 함께, 실제 산업 현장에서 활용 가능한 혁신적인 솔루션 개발에 더욱 박차를 가할 예정입니다.
1
Exploring the Side-information Fusion for Sequential Recommendation
조현석, 최승환, 이동훈, 강형국
IEEE Access, 2025
2
Cross-Modal Dynamic Transfer Learning for Multimodal Emotion Recognition
조현석, 홍소연, 강형국
IEEE Access, 2024
3
Multimodal KB harvesting for emerging spatial entities
조현석, 여진영, 박진우, 황승원
IEEE TRANSACTIONS ON KNOWLEDGE AND DATA ENGINEERING, 2017