Knowledge Distillation for Efficient Human Parsing and Semantic Segmentation
연구 내용
교사-학생 간 관계 정렬과 채널·공간 정보 보정을 통해 경량 인체 파싱/세그멘테이션 성능을 유지하는 연구
인체 파싱과 의미 분할처럼 고해상도 밀집 예측에서 경량 모델의 정확도 손실을 줄이는 방법을 연구합니다. 교사-학생 학습에서는 표준 지식 증류를 넘어 예측 결과의 클래스 간·클래스 내 관계를 반영하는 증류로 표현 간극을 줄입니다. 또한 세그멘테이션에서 단계별 특징의 의미·공간 불일치를 해결하기 위해 채널과 공간 차이를 보정하는 모듈을 설계하고, 덧셈·뺄셈 기반 연산으로 상위 의미를 하위 특징에 주입하며 하위 세부를 상위 특징으로 전달합니다. 이러한 구성을 통해 연산량 대비 정확한 파싱을 목표로 합니다.
관련 연구 성과
관련 논문
3편
관련 특허
0건
관련 프로젝트
0건
연구 흐름
2023년에는 인체 파싱을 대상으로 경량 백본에서 발생하는 성능 저하를 지식 증류로 보완하되, 클래스 관계를 활용한 증류 관점을 적용했습니다. 2024년에는 단계별 특징의 의미-공간 갭 문제를 채널 및 공간 보정 모듈로 직접 완화하는 방향으로 연구를 전개하여, 미세한 인체 부위와 텍스처에 대한 분류 정확도를 높였습니다. 이후 2025년에는 교사-학생 간 의미 분할 지식 전달에서 간극을 줄이기 위한 knowledge tailoring을 확장하며, 증류 전략과 네트워크 구조가 함께 작동하도록 정리하는 흐름으로 이어졌습니다.
활용 가능성
활용 가능성은 알앤디써클 특화 AI 에이전트가 생성한 내용으로, 실제 연구 가능 여부는 연구실과의 논의가 필요합니다.
관련 논문
구분
제목
Class relationship‐based knowledge distillation for efficient human parsing
Knowledge tailoring: Bridging the teacher-student gap in semantic segmentation
Channel and Spatial Enhancement Network for human parsing