看过本文的还看了

相关文献

该作者的其他文献

文献详情 >面向小型边缘计算的深度可分离神经网络模型与硬件加速器设计 收藏
面向小型边缘计算的深度可分离神经网络模型与硬件加速器设计

面向小型边缘计算的深度可分离神经网络模型与硬件加速器设计

作     者:孟群康 李强 赵峰 庄莉 王秋琳 陈锴 罗军 常胜 Meng Qunkang;Li Qiang;Zhao Feng;Zhuang Li;Wang Qiulin;Chen Kai;Luo Jun;Chang Sheng

作者机构:武汉大学物理科学与技术学院武汉430072 国网信息通信产业集团有限公司北京102211 福建亿榕信息技术有限公司福州350003 工业和信息化部电子第五研究所广州510507 

基  金:国家自然科学基金资助项目(62074116,61874079) 广东省基础与应用基础研究基金资助项目(2021A1515110939) 武汉大学珞珈青年学者基金资助项目 电网人工智能模型优化研究项目(SGITYLYRWZXX2202264) 武汉市知识创新专项资助项目(2023010201010077) 

出 版 物:《计算机应用研究》 (Application Research of Computers)

年 卷 期:2024年第41卷第3期

页      码:861-865,879页

摘      要:神经网络参数量和运算量的扩大,使得在资源有限的硬件平台上流水线部署神经网络变得更加困难。基于此,提出了一种解决深度学习模型在小型边缘计算平台上部署困难的方法。该方法基于应用于自定义数据集的深度可分离网络模型,在软件端使用迁移学习、敏感度分析和剪枝量化的步骤进行模型压缩,在硬件端分析并设计了适用于有限资源FPGA的流水线硬件加速器。实验结果表明,经过软件端的网络压缩优化,这种量化部署模型具有94.60%的高准确率,16.64 M的较低的单次推理定点数运算量和0.079 M的参数量。此外,经过硬件资源优化后,在国产FPGA开发板上进行流水线部署,推理帧率达到了366 FPS,计算能效为8.57 GOPS/W。这一研究提供了一种在小型边缘计算平台上高性能部署深度学习模型的解决方案。

主 题 词:边缘计算 深度可分离卷积 流水线部署 硬件加速器 FPGA 

学科分类:081203[081203] 08[工学] 0835[0835] 0812[工学-测绘类] 

D O I:10.19734/j.issn.1001-3695.2023.07.0335

馆 藏 号:203127056...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分