于启航* **,文渊博*,杜子东*.IR-GCN:二值图卷积神经网络推理加速器[J].高技术通讯(中文),2024,34(10):1024~1035 |
IR-GCN:二值图卷积神经网络推理加速器 |
IR-GCN: binary graph convolutional neural network inference accelerator |
|
DOI:10. 3772 / j. issn. 1002-0470. 2024. 10. 002 |
中文关键词: 图卷积神经网络(GCN); 二值神经网络(BNN); 硬件加速器 |
英文关键词: graph convolutional neural network (GCN), binary neural network (BNN), hardware accelerator |
基金项目: |
作者 | 单位 | 于启航* ** | (* 中国科学院计算技术研究所处理器芯片国家重点实验室 北京 100190)
(** 中国科学院大学 北京 100049) | 文渊博* | | 杜子东* | |
|
摘要点击次数: 276 |
全文下载次数: 261 |
中文摘要: |
针对图卷积神经网络(GCN)中数据规模庞大、不适合边缘端低功耗处理器高效推理计算的问题,本文提出一种将新型二值数据量化算法(IR-Net)应用于 GCN 模型推理计算的方法,并设计了对应的硬件加速器 IR-GCN。 同时,针对计算过程中工作负载分布不均衡的问题,实现了一种负载均衡模块设计,显著提高了计算效率。 实验结果表明,在较小精度损失范围内,IR-GCN 加速器可以同时降低计算延迟以及访存开销。 与现有性能最优的研究相比,IR-GCN 加速器平均具有 2. 4 倍的计算加速比、7. 9 倍的功耗降低、13. 7倍的芯片面积减少以及 21. 0 倍的访存量降低。 |
英文摘要: |
This article proposes a method of applying a novel binary quantization algorithm IR-Net to the inference calcu-
lation of graph convolutional neural networks (GCN) and designing the corresponding hardware accelerator IR-GCN
to address the problem of the large-scale data in GCN, which is not suitable for efficient inference calculation on
low-power edging processors. Additionally, to address the issue of uneven workload distribution during the compu-
tation process, a load balancing module is implemented, which significantly improves the calculation efficiency.
The experimental results show that the IR-GCN algorithm can reduce both calculation delay and memory access
overhead simultaneously within a small range of precision loss. Compared with the existing state-of-art research, the
IR-GCN accelerator has an average of 2. 4 times calculation acceleration, 7. 9 times power reduction, 13. 7 times
chip area reduction, and 21. 0 times memory access reduction. |
查看全文
查看/发表评论 下载PDF阅读器 |
关闭 |
|
|
|