[发明专利]专用计算芯片、DMA数据传输系统及方法有效
申请号: | 202011316625.0 | 申请日: | 2020-11-20 |
公开(公告)号: | CN112416826B | 公开(公告)日: | 2023-09-22 |
发明(设计)人: | 武永红 | 申请(专利权)人: | 成都海光集成电路设计有限公司 |
主分类号: | G06F13/28 | 分类号: | G06F13/28;G06F9/50;G06F15/78 |
代理公司: | 北京兰亭信通知识产权代理有限公司 11667 | 代理人: | 孙峰芳 |
地址: | 610041 四川省成都市高新区天府大道*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 专用 计算 芯片 dma 数据传输 系统 方法 | ||
本发明提供一种专用计算芯片、DMA数据传输系统及方法,其中专用计算芯片包括:至少两个DMA引擎和负载均衡控制器,各DMA引擎用于执行DMA队列环形缓冲区中的命令包,实现系统内存和设备内存之间的数据拷贝,负载均衡控制器用于计算各DMA引擎的负载值,该负载值反映各DMA引擎的忙闲状态。基于本发明的专用计算芯片的DMA数据传输系统能够充分利用DMA资源,尽量让各DMA引擎并行工作,提高数据的传输性能。
技术领域
本发明涉及计算机技术领域,尤其涉及一种专用计算芯片、DMA数据传输系统及方法。
背景技术
在高性能计算过程中,参与运算的数据需要从CPU端的系统内存拷贝到计算芯片端的设备内存上,运算完毕还需要再将运算结果从设备内存拷贝到系统内存,这就涉及到CPU端和计算芯片端之间数据的拷贝问题。在高性能专用计算中,CPU端需要调用直接内存存取(Direct Memory Access,DMA)方法,CPU端与计算芯片端之间数据拷贝主要是通过计算芯片内的DMA引擎将计算的输入数据从系统内存传输到设备内存,计算完成后,DMA引擎再把输出数据传输回系统内存。一个计算芯片中可以有多个DMA引擎。目前的传输方法一般为:CPU端轮流在多个DMA引擎上创建DMA队列发包,即当GPU内部有2个DMA引擎时,第一个DMA队列在DMA0引擎上创建,第二个DMA队列在DMA1引擎上创建,第三个DMA队列在DMA0引擎上创建,第四个DMA队列在DMA1引擎上创建,依此类推。接着,CPU端将DMA命令包写到DMA队列的环形缓冲区,然后通知计算芯片中的DMA引擎执行数据拷贝。
由此可以看出,现有技术容易出现多个DMA引擎负载不均衡的问题,例如,当DMA0引擎上每个队列中的命令包的个数比较少,拷贝的数据量也比较少,而DMA1引擎上每个队列中的命令包的个数多,拷贝的数据量较大,若仍然在负载量大的DMA1上创建队列发包,则会导致发出的命令包迟迟得不到执行,甚至会被阻塞,此时整个拷贝时间就会延长,这种DMA引擎的负载不均衡会降低数据的传输效率。
发明内容
为解决上述问题,本发明提供了一种专用计算芯片、DMA数据传输系统及方法,能够提高数据的DMA传输效率。
第一方面,本发明提供一种专用计算芯片,包括:
至少两个直接内存存取DMA引擎和负载均衡控制器,各所述DMA引擎用于执行DMA队列环形缓冲区中的命令包,实现系统内存和设备内存之间的数据拷贝,所述负载均衡控制器用于计算各所述DMA引擎的负载值,所述负载值反映各所述DMA引擎的忙闲状态。
可选地,所述负载均衡控制器,用于根据DMA队列环形缓冲区中命令包的个数、命令包传输的数据量大小、特殊命令的权重以及DMA引擎的执行状况,计算各所述DMA引擎的负载值。
可选地,所述特殊命令包括:
semaphore wait/signal命令,所述semaphore wait/signal命令用于实现模块间的同步;
poll register命令,所述poll register命令用于轮询系统寄存器总线管理器SRBM寄存器空间;
poll memory命令,所述poll memory命令用于轮询内存空间。
可选地,所述专用计算芯片还包括:
计算单元,用于对输入的数据进行计算,并得到输出数据。
可选地,所述专用计算芯片为图像处理器GPU芯片。
第二方面,本发明提供一种DMA数据传输系统,包括:第一方面所提供的专用计算芯片,以及通用CPU芯片,
所述通用CPU芯片包括DMA传输控制装置,所述DMA传输控制装置进一步包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都海光集成电路设计有限公司,未经成都海光集成电路设计有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011316625.0/2.html,转载请声明来源钻瓜专利网。