닫기
Loading..

전자정보연구정보센터 ICT 융합 전문연구정보의 집대성

국내 논문지

홈 홈 > 연구문헌 > 국내 논문지 > 전자공학회 논문지 (Journal of The Institute of Electronics and Information Engineers)

전자공학회 논문지 (Journal of The Institute of Electronics and Information Engineers)

Current Result Document : 1,794 / 1,795

한글제목(Korean Title) 임베디드 시스템에서의 객체 탐지 네트워크 추론 가속을 위한 필터 가지치기 기법 연구
영문제목(English Title) A Study on Filter Pruning Method for Accelerating Object Detection Network Inference in Embedded Systems
저자(Author) 전지훈   김재명   강진구   김용우   Jihun Jeon   Jaemyung Kim   Jin-Ku Kang   Yongwoo Kim  
원문수록처(Citation) VOL 59 NO. 03 PP. 0069 ~ 0077 (2022. 03)
한글내용
(Korean Abstract)
최근에 컴퓨터 비전 분야에서 우수한 성능을 나타내는 CNN(Convolution neural network)이 각광을 받고 있다. 이는 데이터의 증가와 GPU와 같은 하드웨어 성능의 향상으로 가능하게 되었지만 높은 성능을 위해 네트워크가 깊고 넓어지면서 파라미터와 연산량이 기하급수적으로 증가하였다. 따라서 메모리, 연산 성능, 전력 사용이 제한적인 임베디드 환경에서 큰 네트워크의 활용은 더욱 어려워졌다. 이러한 문제를 해결하기 위해 CNN 모델의 정확도는 유지한 채 중요하지 않은 파라미터들을 제거하는 가지치기 기법이 활발히 연구되고 있다. 하지만 대부분의 가지치기 기법을 다룬 기존 연구는 파라미터 제거와 줄어든 파라미터에 의해 감소된 플롭스(FLOPs)에 대한 결과를 보여주였다. 본 논문에서는 파라미터 수와 함께 플롭스까지 원하는 비율만큼 줄임으로써 가속화된 추론 속도를 갖는 네트워크를 생성할 수 있는 필터 가지치기 기법을 제안한다. 제안하는 필터 가지치기 기법에 대한 성능을 평가하기 위해 VisDrone 데이터 세트와 YOLOv5를 이용하였으며, 가지치기 후 경량화된 네트워크의 추론 속도를 NVIDIA Jetson Xavier NX 플랫폼을 이용하여 측정하였다. 파라미터와 플롭스를 각각 30%, 40%, 50%씩 가지치기한 결과 mAP(0.5:0.95)는 기준 객체 탐지 네트워크 대비 0.6%, 0.9%, 1.2% 감소하는 반면에, 추론 시간은 각각 16.60%, 25.79%, 30.72%가 향상된 결과를 확인하였다.
영문내용
(English Abstract)
Recently, convolutional neural networks (CNNs), which exhibit excellent performance in the field of computer vision, have been in the spotlight. This was made possible by the increase of data and the improvement of hardware performance such as GPU, but as the network became deeper and wider for high performance, parameters and computational amount increased exponentially. Therefore, it has become more difficult to utilize a large network in an embedded environment where memory, computational performance, and power usage are limited. To solve this problem, a pruning technique that removes insignificant parameters while maintaining the accuracy of the CNN model is being actively studied. However, existing studies dealing with most of the pruning techniques showed results for reduced parameters and FLOPs reduced by parameter removal. In this paper, we propose a filter pruning method that can create a network with accelerated inference speed by reducing the number of parameters together with the FLOPs by a desired ratio. To evaluate the performance of the proposed filter pruning method, VisDrone data set and YOLOv5 were used, and the inference speed of the lightweight network after pruning was measured using the NVIDIA Jetson Xavier NX platform. As a result of pruning the parameters and FLOPs by 30%, 40%, and 50%, respectively, the mAP (0.5:0.95) decreased 0.6%, 0.9%, and 1.2% compared to the reference object detection network, whereas inference time was confirmed to be improved by 16.60%, 25.79%, and 30.72%, respectively.
키워드(Keyword) Deep learning   Embedded system   Object detection   Filter pruning   FLOPs  
원문 PDF 다운로드