[发明专利]处理器及实现方法、电子设备和存储介质有效
申请号: | 202010851757.7 | 申请日: | 2020-08-21 |
公开(公告)号: | CN112152947B | 公开(公告)日: | 2021-07-20 |
发明(设计)人: | 严小平 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
主分类号: | H04L12/951 | 分类号: | H04L12/951;H04L12/861;G06N3/063 |
代理公司: | 北京鸿德海业知识产权代理有限公司 11412 | 代理人: | 谷春静 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 处理器 实现 方法 电子设备 存储 介质 | ||
本申请公开了处理器及实现方法、电子设备和存储介质,涉及人工智能及深度学习领域,所述处理器中包括:系统控制器,用于将预定的数据包信息发送给数据打包拆包模块;数据打包拆包模块,用于根据数据包信息从存储阵列模块获取对应的数据包数据,与数据包信息进行打包,将打包得到的第一数据包发送给运算模块进行运算处理,并获取运算模块返回的第二数据包,通过拆包得到运算结果数据,存储到存储阵列模块中;存储阵列模块,用于进行数据存储;运算模块,用于对获取到的第一数据包进行运算处理,根据运算结果数据生成第二数据包,返回给数据打包拆包模块。应用本申请所述方案,可降低设计难度,提升整体处理效率等。
技术领域
本申请涉及计算机应用技术,特别涉及人工智能及深度学习领域的处理器及实现方法、电子设备和存储介质。
背景技术
越来越智能化的应用使得神经网络算法更为多样化,使得整体的神经网络模型变得越来越复杂,相应地,带来了更大量的运算和数据的存储交互,因此如神经网络处理器(NPU,Network Processing Unit)芯片等基于神经网络的处理器越来越受到重视。
目前的NPU包括以加速器为核心和以指令扩展为核心的两种主流设计方式,其中前一种设计方式由于通用性和扩展性较差,较少采用,主要采用后一种设计方式。但后一种设计方式中,需要扩展对应神经网络运算操作的繁琐指令集,并需要开发专用的编译器支持等,设计难度很高,尤其是应用于语音数据实时处理时。
发明内容
本申请提供了处理器及实现方法、电子设备和存储介质。
一种处理器,包括:系统控制器、存储阵列模块、数据打包拆包模块以及运算模块;
所述系统控制器,用于将预定的数据包信息发送给所述数据打包拆包模块;
所述数据打包拆包模块,用于根据所述数据包信息从所述存储阵列模块获取对应的数据包数据,将所述数据包数据与所述数据包信息进行打包,将打包得到的第一数据包发送给所述运算模块进行运算处理,并获取所述运算模块返回的第二数据包,通过对所述第二数据包进行拆包得到运算结果数据,存储到所述存储阵列模块中;
所述存储阵列模块,用于进行数据存储;
所述运算模块,用于对获取到的所述第一数据包进行运算处理,根据运算结果数据生成所述第二数据包,返回给所述数据打包拆包模块。
一种处理器实现方法,包括:
构建由系统控制器、存储阵列模块、数据打包拆包模块以及运算模块组成的处理器;
利用所述处理器进行神经网络运算;其中,所述系统控制器用于将预定的数据包信息发送给所述数据打包拆包模块;所述数据打包拆包模块用于根据所述数据包信息从所述存储阵列模块获取对应的数据包数据,将所述数据包数据与所述数据包信息进行打包,将打包得到的第一数据包发送给所述运算模块进行运算处理,并获取所述运算模块返回的第二数据包,通过对所述第二数据包进行拆包得到运算结果数据,存储到所述存储阵列模块中;所述存储阵列模块用于进行数据存储;所述运算模块用于对获取到的所述第一数据包进行运算处理,根据运算结果数据生成所述第二数据包,返回给所述数据打包拆包模块。
一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如以上所述的方法。
一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如以上所述的方法。
一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如以上所述的方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010851757.7/2.html,转载请声明来源钻瓜专利网。