返回列表 发布新帖

MRNDA一种基于资源受限片上网络的深度神经网络加速器组播机制研究

2 0
admin 发表于 2024-12-14 14:30 | 查看全部 阅读模式

文档名:MRNDA一种基于资源受限片上网络的深度神经网络加速器组播机制研究
摘要:片上网络(Network-on-Chip,NoC)在多处理器系统中得到了广泛的应用.近年来,有研究提出了基于NoC的深度神经网络(DeepNeuralNetwork,DNN)加速器.基于NoC的DNN加速器设计利用NoC连接神经元计算设备,能够极大地减少加速器对片外存储的访问从而减少加速器的分类延迟和功耗.但是,若采用传统的单播NoC,大量的一对多数据包会极大的提高加速器的通信延迟.并且,目前的深度神经网络规模往往非常庞大,而NoC的核心数量是有限的.因此,文中提出了一种针对资源受限的NoC的组播方案.该方案利用有限数量的处理单元(ProcessorEl-ement,PE)来计算大型的DNN,并且利用特殊的树形组播加速网络来减少加速器的通信延迟.仿真结果表明,和基准情况相比,本文提出的组播机制使加速器的分类延迟最高降低了86.7%,通信延迟最高降低了88.8%,而它的路由器面积和功耗仅占基准路由器的9.5%和10.3%.

Abstract:Network-on-Chip(NoC)deviceshavebeenwidelyusedinmultiprocessorsystems.Inrecentyears,NoC-baseddeepneuralnetwork(DNN)acceleratorshavebeenproposedtoconnectneuralcomputingdevicesusingNoCs.Suchdesignsdramaticallyreduceoff-chipmemoryaccessesoftheseplatformsthusreducetheaccelerators'classificationlatencyandpowerconsumption.However,thelargenumberofone-to-manypackettransferssignificantlyincreasethecommunica-tionlatencywithtraditionalunicastchannels.Weproposedamulticastmechanismforresource-constrainednoc-baseddeepneuralnetworkaccelerators(MRNDA)tocomputelargeDNNmodelsbyusinglimitednumberofprocessorelements(PEs).Thispaperproposesatree-basedmulticastaccelerationnetworktodecreasethecommunicationlatencyofDNNac-celerators.Simulationresultsshowthat,comparedwiththebaselinemethod,themulticastmechanismproposedinthispa-perreducestheclassificationlatencyoftheacceleratorbyupto86.7%andthecommunicationlatencybyupto88.8%,whileitsrouter'sareaandpoweronlyaccountfor9.5%and10.3%ofthebaselinerouters.

作者:欧阳一鸣   王奇   汤飞扬   周武   李建华 Author:OUYANGYi-ming   WANGQi   TANGFei-yang   ZHOUWu   LIJian-hua
作者单位:合肥工业大学计算机与信息学院,安徽合肥230009合肥工业大学微电子学院,安徽合肥230009
刊名:电子学报 ISTICEIPKU
Journal:ActaElectronicaSinica
年,卷(期):2024, 52(3)
分类号:TP302
关键词:片上网络  深度神经网络加速器  组播  路由器架构  多物理网络  
Keywords:network-on-chip  deepneuralnetworkaccelerator  multicast  routerarchitecture  multiplenetwork  
机标分类号:TP393TN915.05F626.5
在线出版日期:2024年5月16日
基金项目:MRNDA:一种基于资源受限片上网络的深度神经网络加速器组播机制研究[
期刊论文]  电子学报--2024, 52(3)欧阳一鸣  王奇  汤飞扬  周武  李建华片上网络(Network-on-Chip,NoC)在多处理器系统中得到了广泛的应用.近年来,有研究提出了基于NoC的深度神经网络(DeepNeuralNetwork,DNN)加速器.基于NoC的DNN加速器设计利用NoC连接神经元计算设备,能够极大地减少加速器...参考文献和引证文献
参考文献
引证文献
本文读者也读过
相似文献
相关博文

        MRNDA:一种基于资源受限片上网络的深度神经网络加速器组播机制研究  MRNDA:A Multicast Mechanism for Resource-Constrained Noc-Based Deep Neural Network Accelerators

MRNDA:一种基于资源受限片上网络的深度神经网络加速器组播机制研究.pdf
2024-12-14 14:30 上传
文件大小:
2.28 MB
下载次数:
60
附件售价:
1 下载券 [赞助会员免费下载]
本地下载 立即购买
【温馨提示】 您好!以下是下载说明,请您仔细阅读:
1、推荐使用360安全浏览器访问本站,选择您所需的PDF文档,点击页面下方“本地下载”按钮。
2、耐心等待两秒钟,系统将自动开始下载,本站文件均为高速下载。
3、下载完成后,请查看您浏览器的下载文件夹,找到对应的PDF文件。
4、使用PDF阅读器打开文档,开始阅读学习。
5、使用过程中遇到问题,请联系QQ客服。

本站提供的所有PDF文档、软件、资料等均为网友上传或网络收集,仅供学习和研究使用,不得用于任何商业用途。
本站尊重知识产权,若本站内容侵犯了您的权益,请及时通知我们,我们将尽快予以删除。
  • 手机访问
  • 联系QQ客服
2022-2024 新资汇 - 参考资料分享下载网站
关灯 返回顶部
快速回复 返回顶部 返回列表