RnDCircle Logo
이재욱 연구실
서울대학교 산업공학과
이재욱 교수
기본 정보
연구 분야
프로젝트
논문
구성원

이재욱 연구실

서울대학교 산업공학과 이재욱 교수

이재욱 연구실은 통계학습과 데이터마이닝, 최적화, 금융공학을 기반으로 군집화·매니폴드 학습·시계열 분석 등 기계학습 핵심 이론을 발전시키는 한편, 적대적 공격 방어·프라이버시 보호·설명가능 인공지능을 포함한 안전하고 신뢰할 수 있는 AI 기술을 연구하며 이를 금융, 산업 데이터 해석, 환경 및 도시 문제 등 다양한 응용 영역에 확장하는 융합형 인공지능 연구를 수행하고 있다.

대표 연구 분야
연구 영역 전체보기
안전하고 신뢰할 수 있는 인공지능 thumbnail
안전하고 신뢰할 수 있는 인공지능
연구 성과 추이
표시된 성과는 수집된 데이터 기준으로 산출되며, 일부 차이가 있을 수 있습니다.

5개년 연도별 논문 게재 수

99총합

5개년 연도별 피인용 수

1,017총합
주요 논문
3
논문 전체보기
1
article
|
gold
·
인용수 0
·
2025
A KAN-based interpretable framework for prediction of global warming potential across chemical space
Jaewook Lee, Xinyang Sun, Ed Errington, Calum Drysdale, Miao Guo
Carbon Capture Science & Technology
Accurate yet interpretable prediction of Global Warming Potential (GWP) is essential for the sustainable design of novel molecules, chemical processes and materials. This capability is valuable in the early-stage screening of compounds with potential relevance to carbon management and emerging CCUS applications. However, conventional models often face a trade-off between predictive accuracy and interpretability. In this study, we propose an AI-based GWP prediction framework that integrates both molecular and process-level features to improve accuracy while employing white-box modeling techniques to enhance interpretability. First, by incorporating molecular descriptors (MACCS keys, Mordred descriptors) and process-level information (process title, description, location), the Deep Neural Network (DNN) model achieved an R² of 86% on the test data, representing a 25% improvement over the most comparable benchmark reported in prior studies. XAI analysis further highlights the crucial role of process-related features, particularly process title embeddings, in enhancing model predictions. Second, to address the need for model transparency, we employed a Kolmogorov–Arnold Network (KAN) model to develop a symbolic, white-box GWP prediction model. While achieving a lower R² of 64%, this model provides explicit mathematical representations of GWP relationships, enabling interpretable decision-making in sustainable chemical and process design. Our findings demonstrate that integrating molecular and process-level features improves both predictive accuracy and interpretability in GWP modelling. The resulting framework can support early-stage environmental assessment of novel compounds, offering a useful tool to inform the sustainable design of chemicals, including those with potential applications in CCUS.
https://doi.org/10.1016/j.ccst.2025.100478
Global warming
Space (punctuation)
Global-warming potential
Chemical space
Computer science
Environmental science
Climatology
Artificial intelligence
Climate change
Geology
2
article
|
인용수 1
·
2025
Temporal Consistency Ensemble Empirical Mode Decomposition for forecasting practical metal price
Yujin Choi, Dong‐Bin Kim, Jaewook Lee
Engineering Applications of Artificial Intelligence
https://doi.org/10.1016/j.engappai.2025.111490
Computer science
Consistency (knowledge bases)
Mode (computer interface)
Hilbert–Huang transform
Decomposition
Econometrics
Key (lock)
Data mining
Artificial intelligence
Mathematics
3
article
|
인용수 54
·
2022
GradDiv: Adversarial Robustness of Randomized Neural Networks via Gradient Diversity Regularization
Sungyoon Lee, Hoki Kim, Jaewook Lee
IF 23.6 (2022)
IEEE Transactions on Pattern Analysis and Machine Intelligence
Deep learning is vulnerable to adversarial examples. Many defenses based on randomized neural networks have been proposed to solve the problem, but fail to achieve robustness against attacks using proxy gradients such as the Expectation over Transformation (EOT) attack. We investigate the effect of the adversarial attacks using proxy gradients on randomized neural networks and demonstrate that it highly relies on the directional distribution of the loss gradients of the randomized neural network. We show in particular that proxy gradients are less effective when the gradients are more scattered. To this end, we propose Gradient Diversity (GradDiv) regularizations that minimize the concentration of the gradients to build a robust randomized neural network. Our experiments on MNIST, CIFAR10, and STL10 show that our proposed GradDiv regularizations improve the adversarial robustness of randomized neural networks against a variety of state-of-the-art attack methods. Moreover, our method efficiently reduces the transferability among sample models of randomized neural networks.
https://doi.org/10.1109/tpami.2022.3169217
Artificial neural network
MNIST database
Robustness (evolution)
Computer science
Artificial intelligence
Deep neural networks
Regularization (linguistics)
Adversarial system
Machine learning
Pattern recognition (psychology)
최신 정부 과제
40
과제 전체보기
1
2024년 4월-2027년 4월
|143,455,000
안전한 인공지능 시스템 구현을 위한 프라이버시 보호 및 신뢰 보장 기술 개발
본 연구진은 본 연구과제를 통해 기존의 중견 과제에서 개발한 적대적 공격에 대한 연구를 바탕으로 안전하고, 신뢰 가능한 인공지능 시스템을 구축하고자 함. 기존의 연구 성과인 적대적 공격에 대한 노이즈, 매니폴드 기술, 도메인 적응 기술 등을 통해 모델의 안전성, 신뢰성을 높일 수 있는 노이즈 기반 차분 프라이버시 모델을 개발하고, 분산장부 기술을 온라인 ...
인공지능 시스템
개인정보 보호
신뢰 보장 기술
2
주관|
2022년 3월-2026년 12월
|2,658,250,000
플러그앤플레이 방식으로 설명가능성을 제공하는 인공지능 기술 개발 및 인공지능 시스템에 대한 설명 제공 검증
플러그앤플레이 방식의 설명가능 인공지능 기술 개발을 위해 정의한 세 가지 구성요소에 대해 다음과 같은 연구 진행 [플랫폼] - 플러그앤플레이 XAI 매니저 개발 - 커널-모드 플러그앤플레이 매니저 시제품 개발 - 유저-모드 플러그앤플레이 매니저 시제품 개발 - 플러그앤플레이에 이용될 XAI 기법 기술 조사 - 플러그앤플레이 매니저 확장 방안 설계 [알고리즘] - 시계열 생성, 예측, 분류 모델에서 센서의 결함으로 인해 발생한 시계열 잡음을 표현하는 모델 내부 유닛을 확인하고 수정하는 방법 개발 - 언어 생성모델에서 생성 결과에 결함을 유발하거나 특정 지식을 내포한 내부 유닛을 확인하고 수정하는 방법 개발 - 음성 생성모델에서 생성 결과에 결함을 유발하는 내부 유닛을 확인하고 수정하는 방법 개발 - 이론적으로 엄밀한 경사 집적 기반 입력 기여도 알고리즘 개발 - 섭동 기반의 알고리즘으로 인과해석에 대한 설명가능성을 제공하는 기술개발 - 네트워크 예측과정에 대한 간섭 및 개입으로 의사 결정과 의미론적 정보를 해석할 수 있는 기술개발 - 모델 매개변수 공간 정보를 사용한 의사결정 설명 기술 개발 - 설명 가능한 신경망의 플러그앤플레이 기술 개발 - 의료영상 진단 인공지능 모델에 범용적으로 적용 가능한 신경망 해석 플러그앤플레이 모듈 개발 - 해석 가능한 시계열 데이터의 이산화 연구 - 설명가능한 행동 표현 및 이를 토대로 한 계획적(programmatic) 강화학습 기법 연구 - 입력 내 목표 객체에 따라 적절한 설명을 제공할 수 있는 복합 설명 기술 및 인터페이스 개발 - 다양한 도메인 및 용도에 따라 달라지는 사용자 맞춤형 복합 설명 기술 개발 - 다양한 종류의 고차원 데이터를 판단하는 인공지능을 직관적으로 설명할 수 있는 복합 설명 기술 개발 - 재학습이 불필요한 설명가능한 모델 성능평가 기술 개발 [인터페이스/표준화] - XAI 사용자경험 평가 체계 개발 - 시각 인식 지능 특성을 고려한 XAI 기술 설계 및 개발/적용 - 플러그앤플레이 XAI 적용 서비스 요구사항 분석
범용적 설명제공 플랫폼
사용자 맞춤형
설명가능 인공지능
인공지능
플러그앤플레이
3
주관|
2022년 3월-2026년 12월
|2,008,250,000
플러그앤플레이 방식으로 설명가능성을 제공하는 인공지능 기술 개발 및 인공지능 시스템에 대한 설명 제공 검증
플러그앤플레이 방식의 설명가능 인공지능 기술 개발을 위해 정의한 세 가지 구성요소에 대해 다음과 같은 연구 진행 [플랫폼] - 플러그앤플레이 모델 설계 - XAI 플랫폼의 관련 자료 및 문헌 조사 - 코난 테크놀로지 프레임워크와 XAI플랫폼 연동 설계 - XAI 지원을 위한 프레임워크 확장 요구분석 [알고리즘] - 설명성을 고려하지 않고 이미 학습된 임의의 XGBoost 모델의 의사결정 과정을 설명하는 기술 개발 - 경사 집적 기반 입력 기여도 알고리즘 개발 - 생성모델의 내부 유닛 중 결함이 있는 이미지를 생성하는 유닛을 확인하는 기술 개발 - 생성모델 내부 유닛 중 창의적인 이미지 결과를 생성하는 유닛을 확인하는 기술 개발 - 섭동 기반 설명가능성을 제공하기 위한 실험환경 설정 및 구축 - 섭동 기반 플러그앤플레이 방식으로 설명가능성을 제공하기 위한 해석기법 분석 개발 - 추상적 개념을 사용한 트랜스포머 모델 설명 연구 - 심층학습 알고리즘의 내재적 편향 연구 및 설명 가능한 신경망 설계 - 훈련된 의료영상 진단 네트워크 모델의 설명가능성 연구 - 시계열 데이터의 이산화 연구 - 설명 가능한 환경 상태(state) 표현 및 역학(dynamics) 모델링 기법 연구 - 플러그앤플레이를 지원가능한 설명가능 인공지능 핵심 연구 동향 조사 - 다양한 모델 및 데이터에 범용적으로 적용 가능한 입력 기여도 기반 의사결정에 대한 시각적 이유 설명 기술 개발 - 금융 도메인에서 인공지능 모델의 의사결정을 변경할 수 있는 반사실 설명 기술 개발 - 고차원 데이터를 분류 및 분석할 수 있는 설명 가능한 인공지능 모델 개발 - 학습된 모델, 데이터, 개발 환경 등에 독립적인 설명가능성 제공 모델 개발 [인터페이스/표준화] - XAI 사용자경험 개념 프레임워크 개발 - 입력 섭동 기반의 P&P 구조의 시각 XAI 기술 설계 및 개발 - 플러그앤플레이 XAI 적용 시나리오 분석 - 플러그앤플레이 XAI 적용 시나리오 기반 유즈케이스 분석
범용적 설명제공 플랫폼
사용자 맞춤형
설명가능성
인공지능
플러그앤플레이
최신 특허
특허 전체보기
상태출원연도과제명출원번호상세정보
공개2023적대적 음성 예제를 감지 방법 및 시스템1020230087024
공개2023적대적 음성 예제 생성 방법 및 시스템1020230087006
등록2023동형 암호를 이용한 투자 포트폴리오 제공 장치 및 방법1020230080813
전체 특허

적대적 음성 예제를 감지 방법 및 시스템

상태
공개
출원연도
2023
출원번호
1020230087024

적대적 음성 예제 생성 방법 및 시스템

상태
공개
출원연도
2023
출원번호
1020230087006

동형 암호를 이용한 투자 포트폴리오 제공 장치 및 방법

상태
등록
출원연도
2023
출원번호
1020230080813

주식회사 디써클

대표 장재우,이윤구서울특별시 강남구 역삼로 169, 명우빌딩 2층 (TIPS타운 S2)대표 전화 0507-1312-6417이메일 info@rndcircle.io사업자등록번호 458-87-03380호스팅제공자 구글 클라우드 플랫폼(GCP)

© 2026 RnDcircle. All Rights Reserved.