[发明专利]神经网络的执行优化方法及装置在审
申请号: | 202010261041.1 | 申请日: | 2020-04-03 |
公开(公告)号: | CN111488970A | 公开(公告)日: | 2020-08-04 |
发明(设计)人: | 韩睿;刘壮;郭若杉;李瑞玲;李晨;庄重 | 申请(专利权)人: | 北京思朗科技有限责任公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04 |
代理公司: | 北京市浩天知识产权代理事务所(普通合伙) 11276 | 代理人: | 张颖瑛 |
地址: | 100176 北京市大兴区北京经济*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 执行 优化 方法 装置 | ||
1.一种神经网络的执行优化方法,其特征在于,包括:
对待优化的神经网络进行解析,获得所述神经网络包含的网络层的原始执行顺序以及所述网络层的类型;
根据所述网络层的原始执行顺序以及所述网络层的类型,确定目标网络层;其中,所述目标网络层为能够并发执行的网络层;
根据所述网络层的原始执行顺序以及所述目标网络层,生成与所述神经网络对应的优化执行顺序,以供基于所述优化执行顺序执行神经网络运算;其中,所述优化执行顺序中所述目标网络层以并发方式执行。
2.根据权利要求1所述的方法,其特征在于,所述根据所述网络层的原始执行顺序以及所述网络层的类型,确定目标网络层进一步包括:
根据所述网络层的原始执行顺序,获取原始串行执行的相邻的多个网络层;
根据所述网络层的类型,分别获取所述相邻的多个网络层映射的硬件指令;
基于所述相邻的多个网络层映射的硬件指令,确定所述多个网络层是否为目标网络层。
3.根据权利要求2所述的方法,其特征在于,所述硬件指令包括:卷积关联计算指令以及向量计算指令;
其中,所述卷积关联计算指令用于与卷积关联的计算;所述向量计算指令用于向量计算。
4.根据权利要求3所述的方法,其特征在于,所述基于所述相邻的多个网络层映射的硬件指令,确定所述多个网络层是否为目标网络层进一步包括:
若所述相邻的多个网络层映射的硬件指令分别为卷积关联计算指令以及向量计算指令,则确定所述多个网络层为目标网络层。
5.根据权利要求1-4中任一项所述的方法,其特征在于,所述方法还包括:根据所述网络层的神经元结构,将所述原始执行顺序划分为多个执行流分段;其中,在执行过程中,仅在执行流分段的起始及结束处对外部存储器进行读写操作;
则所述根据所述网络层的原始执行顺序以及所述目标网络层,生成与所述神经网络对应的优化执行顺序进一步包括:
根据所述网络层的原始执行顺序、所述目标网络层以及所述执行流分段,生成与所述神经网络对应的优化执行顺序。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:通过对待优化的神经网络的解析,获得所述神经网络包含的网络层的结构参数;
则在所述生成优化执行顺序之后,所述方法还包括:根据所述优化执行顺序以及所述网络层的结构参数,生成参数配置文件。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
根据所述优化执行顺序以及所述参数配置文件生成优化执行文件,以供根据所述优化执行文件执行神经网络运算。
8.一种神经网络的执行优化装置,其特征在于,包括:
解析模块,适于对待优化的神经网络进行解析,获得所述神经网络包含的网络层的原始执行顺序以及所述网络层的类型;
并发确定模块,适于根据所述网络层的原始执行顺序以及所述网络层的类型,确定目标网络层;其中,所述目标网络层为能够并发执行的网络层;
生成模块,适于根据所述网络层的原始执行顺序以及所述目标网络层,生成与所述神经网络对应的优化执行顺序,以供基于所述优化执行顺序执行神经网络运算;其中,所述优化执行顺序中所述目标网络层以并发方式执行。
9.一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7中任一项所述的神经网络的执行优化方法对应的操作。
10.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-7中任一项所述的神经网络的执行优化方法对应的操作。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京思朗科技有限责任公司,未经北京思朗科技有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010261041.1/1.html,转载请声明来源钻瓜专利网。