[发明专利]神经网络处理器板卡及相关产品在审
申请号: | 201711452013.2 | 申请日: | 2017-12-27 |
公开(公告)号: | CN109978150A | 公开(公告)日: | 2019-07-05 |
发明(设计)人: | 不公告发明人 | 申请(专利权)人: | 北京中科寒武纪科技有限公司 |
主分类号: | G06N3/063 | 分类号: | G06N3/063 |
代理公司: | 广州三环专利商标代理有限公司 44202 | 代理人: | 郝传鑫;熊永强 |
地址: | 100000 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络芯片 神经网络处理器 电气连接装置 第二基板 板卡 封装结构 第一基板 计算量 功耗 承载 | ||
本披露提供一种神经网络处理器板卡及相关产品,所述神经网络处理器板卡包括:神经网络芯片封装结构、第一电气及非电气连接装置和第一基板;所述神经网络芯片封装结构包括:神经网络芯片、第二电气及非电气连接装置和第二基板,所述第二基板承载所述神经网络芯片,所述第二基板通过所述第二电气及非电气连接装置与所述神经网络芯片连接。本披露提供的技术方案具有计算量小,功耗低的优点。
技术领域
本披露涉及神经网络领域,尤其涉及一种神经网络处理器板卡及相关产品。
背景技术
人工神经网络(Artificial Neural Network,即ANN),是20世纪80年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。现有的神经网络的运算基于CPU(Central Processing Unit,中央处理器)或GPU(英文:Graphics Processing Unit,图形处理器)来实现神经网络的运算,此种运算的计算量大,功耗高。
发明内容
本披露实施例提供了一种神经网络处理器板卡及相关产品,可提升计算装置的处理速度,提高效率。
第一方面,提供一种神经网络处理器板卡,所述神经网络处理器板卡包括:神经网络芯片封装结构、第一电气及非电气连接装置和第一基板;所述神经网络芯片封装结构包括:神经网络芯片、第二电气及非电气连接装置和第二基板,所述第二基板承载所述神经网络芯片,所述第二基板通过所述第二电气及非电气连接装置与所述神经网络芯片连接;
所述神经网络芯片包括:主处理电路、k个分支电路以及k组基础处理电路,所述主处理电路与所述k个分支电路分别连接,k个分支电路中每个分支电路对应k组基础处理电路中的一组基础处理电路,所述一组基础处理电路包括至少一个基础处理电路;
所述分支电路包括:数据类型运算电路,用于执行浮点类型数据与定点类型数据之间的转换;
所述主处理电路,用于执行神经网络运算中的各个连续的运算以及和与其相连的所述k个分支电路传输数据;
所述k个分支电路,用于在主处理电路与k组基础电路之间转发所述传输数据,依据所述传输数据的运算控制是否启动所述数据类型运算电路对所述传输数据的类型执行转换;
所述k个基础处理电路,用于依据所述传输数据或转换后的传输数据以并行方式执行神经网络中的运算,并将运算结果通过与所述主处理电路连接的分支电路传输给所述主处理电路。
第二方面,提供一种神经网络运算装置,所述神经网络运算装置包括一个或多个第一方面提供的神经网络处理器板卡。
第三方面,提供一种组合处理装置,所述组合处理装置包括:第二方面提供的神经网络运算装置、通用互联接口和通用处理装置;
所述神经网络运算装置通过所述通用互联接口与所述通用处理装置连接。
可以看出,通过本披露实施例,提供数据转换运算电路将数据块的类型进行转换后运算,节省了传输资源以及计算资源,所以其具有功耗低,计算量小的优点。
附图说明
图1a是一种神经网络芯片结构示意图。
图1b是另一种神经网络芯片结构示意图。
图1c是一种基础处理电路的结构示意图。
图1d为一种定点数据类型的示意结构图。
图2为一种矩阵乘以向量流程示意图。
图2a是矩阵乘以向量的示意图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京中科寒武纪科技有限公司,未经北京中科寒武纪科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711452013.2/2.html,转载请声明来源钻瓜专利网。
- 上一篇:调度方法及相关装置
- 下一篇:神经网络处理器板卡及相关产品