[发明专利]用于电子设备的神经网络模型的硬加速方法和装置在审
申请号: | 201810322936.4 | 申请日: | 2018-04-11 |
公开(公告)号: | CN108710941A | 公开(公告)日: | 2018-10-26 |
发明(设计)人: | 王文华;程爱莲 | 申请(专利权)人: | 杭州菲数科技有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/063 |
代理公司: | 北京中政联科专利代理事务所(普通合伙) 11489 | 代理人: | 陈超 |
地址: | 310051 浙江省杭州*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种用于第一电子设备的神经网络模型的硬加速方法和装置,涉及人工智能中的深度学习技术领域。方法包括以下步骤:获取待识别数据和神经网络模型的配置参数;根据配置参数对待识别数据进行与神经网络模型相匹配的卷积计算的硬加速,得到神经网络模型对待识别数据的卷积结果;基于配置参数从预设的至少一个函数模块中调用与神经网络模型相匹配的至少一个函数模块对卷积结果进行函数计算的硬加速,得到神经网络模型对待识别数据的识别结果。本发明可以支持采用各种开源开发环境建立的神经网络模型,还支持用户自定义的神经网络模型;当神经网络模型的算法更新时,只需要重新配置第一电子设备的参数,而无需更改硬件设计。 | ||
搜索关键词: | 神经网络模型 电子设备 配置参数 方法和装置 函数模块 卷积 匹配 人工智能 函数计算 卷积计算 开发环境 算法更新 硬件设计 重新配置 自定义 调用 预设 学习 | ||
【主权项】:
1.一种用于第一电子设备的神经网络模型的硬加速方法,其特征在于,包括:获取待识别数据和第一神经网络模型的配置参数;根据所述配置参数对所述待识别数据进行与所述第一神经网络模型相匹配的卷积计算的硬加速,得到所述第一神经网络模型对所述待识别数据的卷积结果;基于所述配置参数从预设的至少一个函数模块中调用与所述第一神经网络模型相匹配的一个或多个函数模块对所述卷积结果进行函数计算的硬加速,得到所述第一神经网络模型对所述待识别数据的识别结果。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州菲数科技有限公司,未经杭州菲数科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810322936.4/,转载请声明来源钻瓜专利网。