[发明专利]发送装置、神经网络处理器芯片、组合装置以及电子设备在审
申请号: | 201811646712.5 | 申请日: | 2018-12-29 |
公开(公告)号: | CN111382117A | 公开(公告)日: | 2020-07-07 |
发明(设计)人: | 不公告发明人 | 申请(专利权)人: | 上海寒武纪信息科技有限公司 |
主分类号: | G06F15/78 | 分类号: | G06F15/78;G06N3/063 |
代理公司: | 北京华进京联知识产权代理有限公司 11606 | 代理人: | 孙岩 |
地址: | 200120 上海市浦*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 发送 装置 神经网络 处理器 芯片 组合 以及 电子设备 | ||
本申请涉及一种发送装置、神经网络处理器芯片、组合装置以及电子设备,所述装置包括:多个人工智能处理器(专用处理器可以包括多个人工智能处理器)和多通道内存之外,还可以包含其它配套部件。该配套部件包括但不限于:内存控制器、总线、接口。专用处理器通过接口与外部设备之间进行指令传输以及数据传输。
技术领域
本申请涉及人工智能技术领域,特别是涉及一种发送装置、神经网络处理器芯片、组合装置以及电子设备。
背景技术
随着人工智能技术的发展,主操作端已不能满足现有算法的计算需求,神经网络专用芯片营运而生。实践证明,人工智能计算任务相对于通用处理任务或图像处理任务而言,具有独特的数据结构、存储方式、计算模式等,因而可以设计专用集成电路为人工智能计算任务重新分配芯片计算资源,实现低功耗、低延迟、高吞吐率的计算。NPU(Neuralnetwork Processing Unit)是一种专用集成电路,可以实现人工智能计算任务,例如神经网络计算,其具有低功耗、高效能、小面积的特点。
根据摩尔定律和Dennard Scaling定律,单核高效能处理器的计算能力会因为物理因素的限制达到瓶颈。为了提高计算并行性,业界的芯片设计逐渐转向多核高效率处理器设计上。不仅如此,随着高性能计算机和数据中心的发展,越来越多的计算资源被集中起来,多芯片协同处理已是常态。为了实现基于NPU的高处理性能和高可扩展的AI处理系统,NPU芯片间需要支持高效的数据传输。
但是目前还没有一种装置能够支持NPU芯片间的数据传输。
发明内容
基于此,有必要针对上述技术问题,提供一种发送装置。
一种发送装置,所述发送装置设置于芯片中,所述装置包括:发送配置电路,发送控制电路以及发送端口电路;所述发送控制电路分别与所述发送配置电路、所述发送端口电路相连。
在其中一个实施例中,所述发送配置电路包括配置信息获取电路和配置信息解析电路;所述配置信息获取电路分别与所述配置信息解析电路、所述发送控制电路相连。
在其中一个实施例中,所述装置与存储器相连,其中,所述存储器与发送端口电路相连,所述存储用于存储待发送数据。
在其中一个实施例中,存储器包括:同步动态随机存取存储器或双倍速率同步动态随机存取存储器。
在其中一个实施例中,所述发送配置电路、所述发送控制电路分别与主操作端连接。
在其中一个实施例中,所述发送配置电路,发送控制电路以及发送端口电路之间的相连方式包括无线连接、电气连接。
在其中一个实施例中,所述发送配置电路中生成至少一条通信描述符。
在其中一个实施例中,所述发送描述符包括待发送数据的源地址、所述待发送数据的目的地址、所述待发送数据的偏移量以及所述待发送数据的数据块大小中的一种或几种。
一种神经网络处理器芯片,所述芯片包括如上所述的发送装置。
在其中一个实施例中,所述芯片还包括计算装置,所述发送装置与所述计算装置相连。
一种组合装置,所述组合装置包括多个上述的芯片,所述组合装置中的所述芯片两两相连。
在其中一个实施例中,所述组合装置中的上一芯片的发送端口电路与下一芯片中的接收装置相连。
在其中一个实施例中,所述组合装置中的上一芯片的发送端口电路与下一芯片中的接收装置通过高速串行扩展线路相连。
一种电子设备,所述电子设备包括如上述的神经网络处理器芯片。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海寒武纪信息科技有限公司,未经上海寒武纪信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811646712.5/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种高效检测挖掘机大臂前叉的设备
- 下一篇:一种图像处理方法、装置及终端设备