文章摘要
于启航* **,文渊博*,杜子东*.IR-GCN:二值图卷积神经网络推理加速器[J].高技术通讯(中文),2024,34(10):1024~1035
IR-GCN:二值图卷积神经网络推理加速器
IR-GCN: binary graph convolutional neural network inference accelerator
  
DOI:10. 3772 / j. issn. 1002-0470. 2024. 10. 002
中文关键词: 图卷积神经网络(GCN); 二值神经网络(BNN); 硬件加速器
英文关键词: graph convolutional neural network (GCN), binary neural network (BNN), hardware accelerator
基金项目:
作者单位
于启航* ** (* 中国科学院计算技术研究所处理器芯片国家重点实验室 北京 100190) (** 中国科学院大学 北京 100049) 
文渊博*  
杜子东*  
摘要点击次数: 276
全文下载次数: 261
中文摘要:
      针对图卷积神经网络(GCN)中数据规模庞大、不适合边缘端低功耗处理器高效推理计算的问题,本文提出一种将新型二值数据量化算法(IR-Net)应用于 GCN 模型推理计算的方法,并设计了对应的硬件加速器 IR-GCN。 同时,针对计算过程中工作负载分布不均衡的问题,实现了一种负载均衡模块设计,显著提高了计算效率。 实验结果表明,在较小精度损失范围内,IR-GCN 加速器可以同时降低计算延迟以及访存开销。 与现有性能最优的研究相比,IR-GCN 加速器平均具有 2. 4 倍的计算加速比、7. 9 倍的功耗降低、13. 7倍的芯片面积减少以及 21. 0 倍的访存量降低。
英文摘要:
      This article proposes a method of applying a novel binary quantization algorithm IR-Net to the inference calcu- lation of graph convolutional neural networks (GCN) and designing the corresponding hardware accelerator IR-GCN to address the problem of the large-scale data in GCN, which is not suitable for efficient inference calculation on low-power edging processors. Additionally, to address the issue of uneven workload distribution during the compu- tation process, a load balancing module is implemented, which significantly improves the calculation efficiency. The experimental results show that the IR-GCN algorithm can reduce both calculation delay and memory access overhead simultaneously within a small range of precision loss. Compared with the existing state-of-art research, the IR-GCN accelerator has an average of 2. 4 times calculation acceleration, 7. 9 times power reduction, 13. 7 times chip area reduction, and 21. 0 times memory access reduction.
查看全文   查看/发表评论  下载PDF阅读器
关闭

分享按钮