[发明专利]一种人工智能微处理器有效
申请号: | 201711388598.6 | 申请日: | 2017-12-20 |
公开(公告)号: | CN108153190B | 公开(公告)日: | 2020-05-05 |
发明(设计)人: | 罗闳訚 | 申请(专利权)人: | 新大陆数字技术股份有限公司 |
主分类号: | G05B19/042 | 分类号: | G05B19/042 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 350015 福建省福*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 人工智能 微处理器 | ||
本发明公开了一种人工智能微处理器,包括中央处理器、图形处理器、数字信号处理模块及专用集成电路,其特征在于,还包括通讯接口、计算模块、计算单元、本地寄存器、片上缓存器及SDRAM DMA模块,其中通讯接口与计算模块相互独立,通讯接口与主机端通讯,计算模块进行人工智能计算;计算单元通过本地寄存器缓存中间数据,并按照二维网络进行互联;所述片上缓存器包括行存储器及列存储器,计算单元使用行存储器广播和列存储器广播,分别从行存储器及列存储器进行输入;SDRAM DMA模块采用两级状态控制计算流程。通过上述方式,本发明可提供较高计算吞吐量,也可提供较高的能量效率。
技术领域
本发明涉及人工智能技术领域,尤其是涉及一种人工智能微处理器。
背景技术
现有的人工智能微处理器框架主要包括以下几种重要模块:
(1)CPU(Central Processing Unit,中央处理器)
CPU以提高指令执行效率为主要目标,其内含大量指令缓存(1级/2级Cache(高速缓存)),指令控制逻辑(如超标量并行指令发射),以及指令流水线控制逻辑,其是传统计算模型下最重要的底层计算载体。
(2)GPU(Graphics Processing Unit,图形处理器)
GPU以提高大规模数据并行计算效率为主要目标,其内含大量计算单元(如NVIDIA的CUDA核,数量可以是几百、几千、甚至几万个),通常采用SIMD(单指令多数据)或SIMT(单指令多线程),并使用通用的架构来应对更普遍的通用计算。
(3)DSP(Digital Signal Processing,数字信号处理)
DSP可以看做简化版的GPU,一般用于嵌入式SoC(片上系统)。DSP内含一定数量的并行计算单元(几百或者一两千个),计算单元的功能也较简单(如乘法累加单元)。DSP通常用于嵌入式领中等规模的通用计算。
(4)ASIC(Application Specific Integrated Circuit,专用集成电路)
专用的人工智能计算加速电路,针对某个特定算法,通过专用的电路结构来实现计算,灵活性较差,电路一旦确定便不可更改。
但是现有技术的这种人工智能微处理器架构的存在如下主要缺陷:
1.CPU更适合于传统指令计算模型下的控制任务,不适合于大规模计算,计算速度慢。
2.GPU针对通用计算优化,其需要兼容传统的各种通用计算任务,计算能量效率较低。
3.DSP也是针对通用计算,但很难提供大的吞吐量(DSP架构的缺陷使其很难如GPU那样支持几万核),且计算能量效率也无法达到最优。
4.ASIC电路无法更改,灵活性差,在人工智能算法高速发展的现阶段,该技术很难被使用。
发明内容
为克服现有技术的不足,本发明提供一种人工智能微处理器,提高计算吞吐量以及能量效率。
为解决上述技术问题,本发明采用如下技术方案:
提供一种人工智能微处理器,包括中央处理器、图形处理器、数字信号处理模块及专用集成电路,其特征在于,还包括通讯接口、计算模块、计算单元、本地寄存器、片上缓存器及SDRAM DMA模块,其中通讯接口与计算模块相互独立,通讯接口与主机端通讯,计算模块进行人工智能计算;计算单元通过本地寄存器缓存中间数据,并按照二维网络(2D Mesh)进行互联;所述片上缓存器包括行存储器及列存储器,计算单元使用行存储器广播和列存储器广播,分别从行存储器及列存储器进行输入;SDRAM DMA模块采用两级状态控制计算流程。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于新大陆数字技术股份有限公司,未经新大陆数字技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711388598.6/2.html,转载请声明来源钻瓜专利网。