주요 논문
3
*2026년 기준 최근 6년 이내 논문에 한해 Impact Factor가 표기됩니다.
1
article
|
인용수 0
·
2026Optimizing Homomorphic Encryption in Federated Learning with Zero-Skipping
Yoo-Bin Tae, Soo-Jeong Park, Geonha Kim, Seung‐Ho Lim
https://doi.org/10.1109/icce67443.2026.11449705
Homomorphic encryption
Encryption
Key (lock)
Scheme (mathematics)
Federated learning
2
article
|
인용수 0
·
2025Performance Analysis of Clipped Quantization in Federated Learning
Seung‐Ho Lim
The Journal of Korean Institute of Information Technology
연합학습은 학습을 개별 클라이언트에 분산시켜 학습연산의 오버헤드는 분산되지만, 중앙 서버에 모델 파라미터를 전송하는 오버헤드가 증가한다. 본 연구에서는 연합학습에서 클라이언트와 중앙서버간 전송되는 파라미터의 양을 줄이기 위해서 오려낸(Clipped) 양자화를 파라미터에 적용하여 본다. 오려낸 양자화(Clipped Quantization)는 연합학습 시스템에서 클라이언트가 매 라운드 시 업데이트된 파라미터를 양자화하여 중앙서버에 보낼 때, 양자화 값의 분포를 파악하여 양자화된 파라미터의 양 끝부분을 일정 비율로 클리핑한 후 이 값을 압축하여 보내는 방식이다. 이러한 오리기 방법은 양자화된 값 중에서 유효한 값을 가지는 범위가 줄어듦으로써 압축률을 높일 수 있으므로 전송량을 줄일 수 있다. 실험결과, 딥러닝 모델에서 2~5%의 정확도 감소대비 30~40% 에폭 당 데이터 전송량이 줄어듦을 확인할 수 있었다.
https://doi.org/10.14801/jkiit.2025.23.9.1
Federated learning
Quantization (signal processing)
Field (mathematics)
Scheme (mathematics)
Key (lock)
3
article
|
gold
·
인용수 3·
2022An Integrated Analysis Framework of Convolutional Neural Network for Embedded Edge Devices
Seung‐Ho Lim, Shin-Hyeok Kang, Byeong-Hyun Ko, Jaewon Roh, Chaemin Lim, Sang-Young Cho
IF 2.9 (2022)
Electronics
Recently, IoT applications using Deep Neural Network (DNN) to embedded edge devices are increasing. Generally, in the case of DNN applications in the IoT system, training is mainly performed in the server and inference operation is performed on the edge device. The embedded edge devices still take a lot of loads in inference operations due to low computing resources, so proper customization of DNN with architectural exploration is required. However, there are few integrated frameworks to facilitate exploration and customization of various DNN models and their operations in embedded edge devices. In this paper, we propose an integrated framework that can explore and customize DNN inference operations of DNN models on embedded edge devices. The framework consists of the GUI interface part, the inference engine part, and the hardware Deep Learning Accelerator (DLA) Virtual Platform (VP) part. Specifically it focuses on Convolutional Neural Network (CNN), and provides integrated interoperability for convolutional neural network models and neural network customization techniques such as quantization and cross-inference functions. In addition, performance estimation is possible by providing hardware DLA VP for embedded edge devices. Those features are provided as web-based GUI interfaces, so users can easily utilize them.
https://doi.org/10.3390/electronics11071041
Convolutional neural network
Computer science
Inference
Edge device
Enhanced Data Rates for GSM Evolution
Personalization
Edge computing
Artificial neural network
Interoperability
Deep learning