[发明专利]一种基于CNN的可配置目标检测硬件加速优化方法在审
申请号: | 202210978820.2 | 申请日: | 2022-08-16 |
公开(公告)号: | CN115309364A | 公开(公告)日: | 2022-11-08 |
发明(设计)人: | 胡建国;夏邦;林芸晓;马志华;张充;宋政 | 申请(专利权)人: | 中山大学 |
主分类号: | G06F7/523 | 分类号: | G06F7/523;G06N3/04;G06F8/71 |
代理公司: | 广州嘉权专利商标事务所有限公司 44205 | 代理人: | 梁嘉琦 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 cnn 配置 目标 检测 硬件加速 优化 方法 | ||
1.一种基于CNN的可配置目标检测硬件加速优化方法,其特征在于,包括:
对目标网络模型的目标层数据进行前处理;
接收并传输所述前处理后的目标网络模型的模型数据至目标缓存;
将所述目标缓存中的所述模型数据进行编排处理,输出至DSP进行前项推理计算;
根据所述前项推理计算后的模型数据存储到输出缓存;
基于发送控制信号,将所述输出缓存的数据写到外部存储。
2.根据权利要求1所述的一种基于CNN的可配置目标检测硬件加速优化方法,其特征在于,所述对目标网络模型的目标层数据进行前处理,包括:
在所述目标网络模型的卷积层和激活层插入Histogram Observer;
通过量化机制,对目标网络模型的卷积层数据和激活层数据进行量化处理。
3.根据权利要求1所述的一种基于CNN的可配置目标检测硬件加速优化方法,其特征在于,所述接收并传输所述前处理后的目标网络模型的模型数据至目标缓存,包括:
采用AXI-Stream协议传输所述前处理后的目标网络模型的模型数据,将所述模型数据定义为AXI-Stream流数据;
通过Slave_AXIS_Interface模块接收所述AXI-Stream流数据;
根据所述Slave_AXIS_Interface模块的状态信号开始或结束所述AXI-Stream流数据的传输任务;
在所述AXI-Stream流数据的传输任务中,通过所述Slave_AXIS_Interface模块产生缓存写地址将所述AXI-Stream流数据写入目标缓存。
4.根据权利要求1所述的一种基于CNN的可配置目标检测硬件加速优化方法,其特征在于,所述目标缓存包括IFM_Buffer和Weight_Buffer,所述将所述目标缓存中的所述模型数据进行编排处理,输出至DSP进行前项推理计算,包括:
根据所述模型数据的特征图尺寸,通过IFM_Buffer配置行缓存深度,生成3×3矩阵输出到DSP;通过Weight_Buffer同步输出数据到所述DSP;
基于所述IFM_Buffer和Weight_Buffer的输出数据,通过DSP双乘法器封装技术进行两组卷积的前项推理计算。
5.根据权利要求4所述的一种基于CNN的可配置目标检测硬件加速优化方法,其特征在于,所述通过DSP双乘法器封装技术进行两组卷积的前项推理计算这一步骤中,包括:
对DSP计算过程的INT18类型数据进行饱和处理,得到INT16类型数据;
将INT16类型数据与量化系数相乘,得到INT32类型数据;
通过右移舍入方式将INT32类型数据再次变为INT16类型数据,并进行饱和处理得到INT8类型数据。
6.根据权利要求1所述的一种基于CNN的可配置目标检测硬件加速优化方法,其特征在于,所述根据所述前项推理计算后的模型数据存储到输出缓存,包括:
将所述前项推理计算后的模型数据经过池化处理和激活处理,输出到OFM_Buffer进行存储。
7.根据权利要求1所述的一种基于CNN的可配置目标检测硬件加速优化方法,其特征在于,所述基于发送控制信号,将所述输出缓存的数据写到外部存储,包括:
通过Master_AXIS_Interface模块接收主机的send_enable信号,进行数据读处理;采用AXI-Stream协议将所述输出缓存的数据写到所述主机的外部存储。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210978820.2/1.html,转载请声明来源钻瓜专利网。