[发明专利]用于电子设备的神经网络模型的硬加速方法和装置在审
申请号: | 201810322936.4 | 申请日: | 2018-04-11 |
公开(公告)号: | CN108710941A | 公开(公告)日: | 2018-10-26 |
发明(设计)人: | 王文华;程爱莲 | 申请(专利权)人: | 杭州菲数科技有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/063 |
代理公司: | 北京中政联科专利代理事务所(普通合伙) 11489 | 代理人: | 陈超 |
地址: | 310051 浙江省杭州*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络模型 电子设备 配置参数 方法和装置 函数模块 卷积 匹配 人工智能 函数计算 卷积计算 开发环境 算法更新 硬件设计 重新配置 自定义 调用 预设 学习 | ||
1.一种用于第一电子设备的神经网络模型的硬加速方法,其特征在于,包括:
获取待识别数据和第一神经网络模型的配置参数;
根据所述配置参数对所述待识别数据进行与所述第一神经网络模型相匹配的卷积计算的硬加速,得到所述第一神经网络模型对所述待识别数据的卷积结果;
基于所述配置参数从预设的至少一个函数模块中调用与所述第一神经网络模型相匹配的一个或多个函数模块对所述卷积结果进行函数计算的硬加速,得到所述第一神经网络模型对所述待识别数据的识别结果。
2.根据权利要求1所述的方法,其特征在于,
所述配置参数包括:所述第一神经网络模型的权重参数、卷积计算参数、所需调用函数参数中的一种或多种;
其中,所述权重参数为基于所述第一电子设备需要的格式对所述第一神经网络模型的原始权重参数进行重新组合得到;
所述卷积计算参数包括:待识别数据的规格、卷积核的数量、卷积核的大小、卷积计算步长、神经网络模型的层数中的一个或多个;
所述所需调用函数参数包括:所述第一神经网络模型所需调用的函数名称、函数参数及调用顺序。
3.根据权利要求1或2所述的方法,其特征在于,所述对所述卷积结果进行函数计算的硬加速包括:
按照所述配置参数将所述一个或多个函数模块通过跳转通道进行连接;
将所述卷积结果输入通过跳转通道连接的所述一个或多个函数模块,由所述一个或多个函数模块顺次进行硬加速并输出结果。
4.根据权利要求1或2所述的方法,其特征在于,所述预设的至少一个函数模块包括以下函数中的一种或多种:
标准化函数BatchNorm、缩放函数Scale、Eltwise函数、激活函数ReLU、激活函数Sigmoid、激活函数Tanh、池化函数Pooling、池化函数max pooling、池化函数meanpooling、池化函数root mean square pooling、全连接函数FC、分类函数Softmax。
5.根据权利要求1或2所述的方法,其特征在于,所述获取待识别数据和第一神经网络模型的配置参数包括:
从外部存储器中读取待识别数据和第一神经网络模型的配置参数,并将读取的待识别数据和第一神经网络模型的配置参数写入本地存储器中。
6.根据权利要求5所述的方法,其特征在于,在读取和写入所述待识别数据时,对每个独立的数据文件只进行一次读取和写入。
7.根据权利要求5所述的方法,其特征在于,
若读取的待识别数据的规格是M×N×K,则在写入时,通过M×(N1+N2)×(K1+K2)的拆分方式将所述待识别数据拆分为若干个小的三维矩阵;
其中,对于图片文件,M代表图片的宽度;N代表图片的高度;K代表图片的通道数;K1+K2=K;N1+N2=N。
8.一种用于第一电子设备的神经网络模型的硬加速装置,其特征在于,包括:
获取模块,用于获取待识别数据和第一神经网络模型的配置参数;
卷积计算模块,用于根据配置参数对所述待识别数据进行与所述第一神经网络模型相匹配的卷积计算的硬加速,得到所述第一神经网络模型对所述待识别数据的卷积结果。
函数计算模块,用于基于所述配置参数从预设的至少一个函数模块中调用与所述第一神经网络模型相关的一个或多个函数模块对所述卷积结果进行函数计算的硬加速,得到所述第一神经网络模型对所述待识别数据的识别结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州菲数科技有限公司,未经杭州菲数科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810322936.4/1.html,转载请声明来源钻瓜专利网。