[发明专利]神经网络的运算方法、装置、计算机设备和存储介质有效
申请号: | 201810252109.2 | 申请日: | 2018-03-26 |
公开(公告)号: | CN110363291B | 公开(公告)日: | 2022-02-08 |
发明(设计)人: | 李威 | 申请(专利权)人: | 上海寒武纪信息科技有限公司 |
主分类号: | G06N3/06 | 分类号: | G06N3/06;G06N3/08 |
代理公司: | 北京华进京联知识产权代理有限公司 11606 | 代理人: | 孙岩 |
地址: | 200120 上海市浦*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 运算 方法 装置 计算机 设备 存储 介质 | ||
本申请涉及一种神经网络运算方法、系统、计算机设备和存储介质,所述方法包括:获取任务处理指令,根据所述任务处理指令生成神经网络运算装置的控制指令和预处理配置指令;根据所述控制指令,得到神经网络运算算法;根据所述预处理配置指令对FPGA IP核进行配置,得到预处理算法;通过所述FPGA IP核对神经网络的输入神经元数据执行预处理,得到预处理后的输入神经元数据;根据所述神经网络运算算法对所述预处理后的输入神经元数据执行神经网络运算,得到输出神经元数据;通过FPGA IP核输出所述输出神经元数据。通过本申请所提供的方法、装置、计算机设备和存储介质能够使得神经网络运算装置灵活性高、对深度学习算法依赖性小、能够适应不断变化的应用需求或算法变化。
技术领域
本申请涉及人工智能领域,特别是涉及神经网络的运算方法、装置、计算机设备和存储介质。
背景技术
目前一些性能较好的神经网络通常都非常庞大,这也意味着这些神经网络需要大量的计算资源和存储资源。大量的计算和存储资源的开销会降低神经网络的运算速度,同时,对硬件的传输带宽以及运算器的要求也大大提高了。针对这一问题,可以通过改变深度学习处理器的硬件架构来对算法的实现进行加速。
深度学习处理器中除了专门用于神经元计算的深度学习运算单元,通常会通过专用逻辑电路实现对输入数据的预处理和输出数据的后处理,但专用逻辑电路灵活性差,对深度学习算法的依赖性大。一旦应用需求或算法发生变化,则需要重新设计专用逻辑电路,造成时间和经济上的巨大开销;并且专用逻辑电路的开发成本高,开发周期长,开发难度大。
发明内容
基于此,有必要针对上述技术问题,提供一种灵活性高、对深度学习算法依赖性小、能够适应不断变化的应用需求或算法变化的一种基于FPGA IP核的神经网络运算的方法、装置、计算机设备和存储介质。
一种神经网络运算方法,所述方法包括:
获取任务处理指令,根据所述任务处理指令生成控制指令和预处理配置指令;
根据所述控制指令,得到神经网络运算算法;
根据所述预处理配置指令对FPGA IP核进行配置,得到预处理算法;
通过所述FPGA IP核对神经网络的输入神经元数据执行预处理,得到预处理后的输入神经元数据;
根据所述神经网络运算算法对所述预处理后的输入神经元数据执行神经网络运算,得到输出神经元数据;
通过FPGA IP核输出所述输出神经元数据。
上述神经网络运算方法、装置、计算机设备和存储介质,通过对FPGA IP核进行不同的配置,使得一个神经网络运算装置能够实现对神经元数据不同的预处理操作,从而使得神经网络运算装置的灵活性提高、对深度学习算法依赖性降低、且能够适应不断变化的应用需求或算法变化。
附图说明
图1为一个实施例中基于FPGA IP核的深度学习处理器装置的结构示意图;
图2为一个实施例中神经网络运算方法流程图;
图3为一个实施例中FPGA IP核的内部结构示意图;
图4为一个实施例中当FPGA IP核配置为幂次转换单元时的深度学习处理器的结构示意图;
图5为一个实施例中FPGA IP核配置为幂次转换单元时运算方法的流程示意图;
图6为一个实施例中的编码表的示意图;
图7为一个实施例中的编码表的另一示意图;
图8为一个实施例中的编码表的另一示意图;
图9为一个实施例中的编码表的另一示意图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海寒武纪信息科技有限公司,未经上海寒武纪信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810252109.2/2.html,转载请声明来源钻瓜专利网。