文档摘要:针对卷积神经网络(CNN)计算效率低、速度慢、硬件资源消耗大等问题,提出了基于动态可重构结构的卷积数据复用优化设计方案.利用可重构阵列邻接互连寄存器实现输入特征图数据和权值数据的复用,提高内存访问效率,采用层间多通道并行计算对神经网络卷积运算进行加速.经在AlexNet上测试,论文提出的数据复用策略使得卷积运算乘累加操作最高可减少44.05%.在Zynq-7000开发板上实现本文提出的优化方案.结果表明:相比于现有的基于现场可编程门阵列(FPGA)实现AlexNet的计算,本实验LUTs资源消耗减少12.86%、FF资源消耗减少约97.5%、DSP资源消耗减少约66.7%.
Abstract:Aimingattheproblemsoflowcomputationalefficiency,slowspeedandhighconsumptionofhardwareresourcesofconvolutionalneuralnetwork(CNN),anoptimaldesignschemeofconvolutionaldatamultiplexingbasedondynamicreconfigurablestructureisproposed.Thereconfigurablearraycriticalinterconnectregistersareusedtoimplementdatamultiplexingofinputfeaturemapdataandweightdatatoimprovememoryaccessefficiency,andusesinter-layermulti-channelparallelcomputingtoacceleratetheconvolutionalcomputationoftheneuralnetwork.TestedontheAlexNet,theproposeddatamultiplexingstrategycanreducetheconvolutionalcomputationbyupto44.05%.TheproposedoptimizationschemeisimplementedonaZynq-7000developmentboard.Resultsshowthatthisexperimentconsumes12.86%lessLUTsresources,approximately97.5%lessFFresourcesandapproximately66.7%lessDSPresourcesthanexistingfieldprogrammablegatearray(FPGA)-basedimplementationsofAlexNetcomputations.
作者:宋佳 蒋林 朱育琳 朱家扬Author:SONGJia JIANGLin ZHUYulin ZHUJiayang
作者单位:西安科技大学电气与控制工程学院,陕西西安710600
刊名:传感器与微系统 ISTICPKU
Journal:TransducerandMicrosystemTechnologies
年,卷(期):2024, 43(6)
分类号:TP183
关键词:卷积神经网络 并行计算 数据复用
Keywords:convolutionalneuralnetwork(CNN) parallelcomputation datareuse
机标分类号:TP391.41TN911.73TP274.2
在线出版日期:2024年7月12日
基金项目:国家自然科学基金基于动态可重构结构的卷积数据复用优化设计[
期刊论文] 传感器与微系统--2024, 43(6)宋佳 蒋林 朱育琳 朱家扬针对卷积神经网络(CNN)计算效率低、速度慢、硬件资源消耗大等问题,提出了基于动态可重构结构的卷积数据复用优化设计方案.利用可重构阵列邻接互连寄存器实现输入特征图数据和权值数据的复用,提高内存访问效率,采用层间多...参考文献和引证文献
参考文献
引证文献
本文读者也读过
相似文献
相关博文
关键词:卷积神经网络,并行计算,数据复用,
- 文件大小:
- 476.19 KB
- 下载次数:
- 60
-
高速下载
|
|