arrow left icon

대표 연구 분야

보안 AI (Secure AI)

상세 설명

보안 AI는 인공지능 시스템이 다양한 위협에 대해 견고하게 동작할 수 있도록 하는 기술을 연구합니다. ODAI@UOS 연구실은 적대적 공격(Adversarial Attack)에 대한 방어, LLM 및 SNN 보안, 그리고 AI 시스템의 신뢰성 향상을 위한 다양한 기법을 개발하고 있습니다. 최근에는 다중 객체 추적 시스템(MOT)에 대한 BankTweak와 같은 새로운 적대적 공격 기법을 제안하여, 기존 시스템의 취약점을 분석하고 이를 보완하는 방안을 모색하고 있습니다. 연구실에서는 AI 모델이 실제 환경에서 다양한 공격에 노출될 수 있음을 인식하고, 공격 탐지 및 방어를 위한 실시간 스케줄링 프레임워크, 보안 중심의 혼합 임계 스케줄링, 정보 유출 방지 스케줄링 등 다양한 시스템적 접근법을 시도하고 있습니다. 예를 들어, ARES(Adaptive Robust Object Detection Framework)는 자율주행차와 같은 실시간 시스템에서 공격이 감지될 경우, 고성능-저보안 모드에서 고보안 모드로 전환하여 시스템의 안전성과 성능을 동시에 보장합니다. 이러한 보안 AI 연구는 자율주행, 스마트시티, 국방 등 안전과 신뢰성이 중요한 분야에 필수적으로 요구되며, 앞으로도 ODAI@UOS 연구실은 AI 시스템의 보안성 강화를 위한 선도적 연구를 지속할 예정입니다.

키워드

 -

관련 이미지

 -

관련 자료

 -