[发明专利]神经网络模型编译方法、设备及存储介质在审
申请号: | 202211724624.9 | 申请日: | 2022-12-30 |
公开(公告)号: | CN116225445A | 公开(公告)日: | 2023-06-06 |
发明(设计)人: | 孙金周;石开宇;王硕;薛峰 | 申请(专利权)人: | 思必驰科技股份有限公司 |
主分类号: | G06F8/41 | 分类号: | G06F8/41;G06N3/063 |
代理公司: | 苏州谨和知识产权代理事务所(特殊普通合伙) 32295 | 代理人: | 吕超 |
地址: | 215000 江苏省苏州市*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 模型 编译 方法 设备 存储 介质 | ||
本申请属于计算机技术领域,具体涉及神经网络模型编译方法、设备及存储介质,包括:通过将待编译神经网络模型转换为神经网络算子;对神经网络算子进行划分,得到第一芯片对应的第一算子和第二芯片对应的第二算子;分别将第一算子和第二算子转换为第一中间表示和第二中间表示;分别将第一中间表示和第二中间表示转换为第一计算函数和第二计算函数;将第一计算函数和第二计算函数组合后,编译链接为计算库;可以解决DSA芯片无法完整支持整个神经网络模型的运算的问题;在第一芯片不支持部分神经网络模型的情况下,则转化为第二芯片对应的中间表示,这样,在使用第一芯片对神经网络模型运算时,能够完整支持整个神经网络模型的运算。
技术领域
本申请涉及神经网络模型编译方法、设备及存储介质,属于计算机技术领域。
背景技术
深度学习在语音识别、图像识别等领域取得很多突破,现有的神经网络模型需要用更短的时间、更低功耗完成运算,给深度学习计算芯片提出了更高的要求。因此,需要将神经网络模型在特定领域架构芯片(Domain Specific Architecture,DSA)上的编译部署。
传统的神经网络模型编译方法,包括:将特定领域架构芯片(Domain SpecificArchitecture,DSA)指令融入神经网络编译器(Tensor Virtual Machin,TVM)框架内,从而编译出神经网络模型指令。
然而,神经网络模型的发展迅速,其迭代的速度远超过DSA芯片迭代速度,因此,在很多情况下,存在DSA芯片无法完整支持整个神经网络模型的运算的问题。
发明内容
本申请提供了神经网络模型编译方法、设备及存储介质,可以解决DSA芯片无法完整支持整个神经网络模型的运算的问题。
本申请提供如下技术方案:
第一方面,一种神经网络模型编译方法,其特征在于,所述方法包括:
将待编译神经网络模型转换为神经网络算子;
对所述神经网络算子进行划分,得到第一芯片对应的第一算子和第二芯片对应的第二算子;
分别将所述第一算子和所述第二算子转换为第一中间表示和第二中间表示;
分别将所述第一中间表示和所述第二中间表示转换为第一计算函数和第二计算函数;
将所述第一计算函数和所述第二计算函数组合后,编译链接为计算库。
可选地,所述神经网络算子的数量为N个,其中,所述N为大于0的整数;对所述神经网络算子进行划分,得到第一芯片对应的第一算子和第二芯片对应的第二算子,包括:
获取所述第一芯片对应的第一算子集合;所述第一算子集合中包括所述第一芯片对应的可执行算子;
确定所述第一算子集合是否包括第M个神经网络算子;其中,所述M为大于0、且小于或等于所述N的整数;
在所述第一算子集合中包括所述第M个神经网络算子的情况下,将所述第M个神经网络算子确定为所述第一算子;
确定所述M是否小于所述N;
在所述M小于所述N的情况下,令M=M+1;执行所述确定所述第一算子集合是否包括第M个神经网络算子的步骤。
可选地,在所第一算子集合中不包括所述第M个神经网络算子的情况下,将所述第M个神经网络算子确定为所述第二算子;
确定所述M是否小于所述N;
在所述M小于所述N的情况下,令M=M+1;执行所述确定所述第一算子集合是否包括第M个神经网络算子的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于思必驰科技股份有限公司,未经思必驰科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211724624.9/2.html,转载请声明来源钻瓜专利网。