[发明专利]一种人工智能处理器的学习任务编译方法及相关产品在审
申请号: | 201911296833.6 | 申请日: | 2019-12-16 |
公开(公告)号: | CN110766145A | 公开(公告)日: | 2020-02-07 |
发明(设计)人: | 不公告发明人 | 申请(专利权)人: | 中科寒武纪科技股份有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04 |
代理公司: | 11606 北京华进京联知识产权代理有限公司 | 代理人: | 黄易 |
地址: | 100190 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 人工智能 处理器 编译 卷积 卷积神经网络 神经网络结构 存储介质 任务编译 神经网络 数据交换 冗余 学习 优化 融合 申请 | ||
本申请涉及一种编译人工智能处理器的学习任务的方法、装置、存储介质和系统。所述方法包括:首先通过将冗余神经网络层的融合到卷积层中,进行卷积神经网络结构的优化,之后再基于优化后的卷积神经网络对人工智能处理器的学习任务进行编译。采用本方法编译人工智能处理器的学习任务编译效率高,且在设备上被执行时可以减少处理过程中的数据交换。
相关申请:
本申请要求2018年12月29日提交,申请号为201811639927.4,发明名称为“卷积神经网络的优化方法、装置、存储介质和系统”的优先权。
技术领域
本申请涉及人工智能技术领域,特别是涉及一种人工智能处理器的学习任务编译方法及相关产品。
背景技术
在人工智能处理器运行神经网络时,一般首先需要利用通用处理器(CPU)对包含神经网络的算子的神经网络进行编译得到可执行文件,该可执行文件包含设备信息,即可执行文件需在异构计算机系统中的哪一设备上执行。可执行文件被汇编链接后可得到神经网络的可执行程序,并将该可执行程序存储。
CPU可以从可执行程序的存储位置读取可执行程序,并根据该可执行程序得到程序的多个任务。这些任务被分发至人工智能处理器上执行,最终获得运算结果。
一般情况下,神经网络中存在大量的算子,人工智能处理器在执行这些算子的运算逻辑时,通常会循环执行如下步骤:
从片外缓存上读取上一算子的运算结果,基于该上一算子的运算结果执行当前算子的运算任务,并在执行完当前算子的运算任务后,将该运算任务的运算结果写入片外缓存。
因此,设备在执行神经网络的运算任务时,每执行完一个算子的相关运算即需要进行一次数据交换。这不仅导致数据处理效率降低,还会占用片间通信资源。
发明内容
基于此,有必要针对上述技术问题,提供一种人工智能处理器的学习任务编译方法及相关产品。
一种编译人工智能处理器的学习任务的方法,所述方法包括:
通用处理器获取配置参数,其中,所述配置参数包括所述人工智能处理器的学习任务对应卷积神经网络的Scale层的第一训练参数和第二训练参数;
所述通用处理器将所述Scale层的第一训练参数与所述卷积神经网络的卷积层的权值参数融合,得到第一融合结果;
所述通用处理器将所述Scale层的第二训练参数与所述卷积神经网络的卷积层的偏置参数融合,得到第二融合结果;
根据所述第一融合结果以及所述第二融合结果,对所述卷积神经网络进行优化,得到优化后的卷积神经网络;
对优化后的卷积神经网络进行编译,得到对应的二进制指令序列,以分配至人工智能处理器上执行对应的学习任务。
在其中一个实施例中,所述通用处理器将所述Scale层的第一训练参数与所述卷积神经网络的卷积层的权值参数融合,得到第一融合结果,包括:
所述通用处理器将所述Scale层的第一训练参数以及所述卷积层的权值参数进行乘法运算,得到所述第一融合结果。
在其中一个实施例中,所述通用处理器将所述Scale层的第二训练参数与所述卷积神经网络的卷积层的偏置参数融合,得到第二融合结果,包括:
所述通用处理器将所述Scale层的第二训练参数以及所述卷积层的偏置参数进行加法运算,得到所述第二融合结果。
在其中一个实施例中,所述通用处理器根据所述第一融合结果以及所述第二融合结果,对所述卷积神经网络进行优化,得到优化后的卷积神经网络,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中科寒武纪科技股份有限公司,未经中科寒武纪科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911296833.6/2.html,转载请声明来源钻瓜专利网。