[发明专利]一种HPL计算模型仿真方法在审
申请号: | 201910583440.7 | 申请日: | 2019-07-01 |
公开(公告)号: | CN110333933A | 公开(公告)日: | 2019-10-15 |
发明(设计)人: | 陆璐;方文 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06F9/455 | 分类号: | G06F9/455;G06F9/50;G06F11/36 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 陈宏升 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 仿真计算 计算模型 计算分析系统 系统配置参数 可视化界面 仿真结果 分析系统 浮点运算 工作效率 挖掘系统 形式计算 运算能力 分配比 任务量 浮点 测试 瓶颈 消耗 记录 展示 帮助 | ||
1.一种HPL计算模型仿真方法,其特征在于,包含以下顺序的步骤:
获取用户输入的系统配置参数,所述系统配置参数包括CPU、GPU、MISC参数;
根据CPU和GPU的运算能力来确定仿真计算任务量在CPU和GPU上的分配比,将对应的任务分别在CPU和GPU上进行仿真计算,记录仿真计算所消耗的时间,计算分析系统的浮点性能,展示仿真结果。
2.根据权利要求1所述HPL计算模型仿真方法,其特征在于,所述CPU参数包括CPU核心数、频率、每一时钟周期浮点运算次数、CPU个数;所述GPU参数包括GPU频率、GPU个数;所述MISC参数包括问题规模、矩阵分块大小、总线带宽、总线效率因子、CPU并行执行效率因子、GPU并行执行效率因子、GEMM效率因子。
3.根据权利要求1所述HPL计算模型仿真方法,其特征在于,所述CPU、GPU、MISC参数的配置方式包括手动输入、模版输入、自动输入三种方式。
4.根据权利要求3所述HPL计算模型仿真方法,其特征在于,所述模版输入,CPU类型包括EPYC 7251、EPYC 7281、Xeon Gold 6142,GPU类型包括RX Vega 56、RX Vega 64、Vega10;当选择CPU或GPU模版时,对应的配置参数将会自动填充。
5.根据权利要求3所述HPL计算模型仿真方法,其特征在于,所述自动输入,是该HPL计算模型仿真方法自动获取本机的配置参数。
6.根据权利要求1所述HPL计算模型仿真方法,其特征在于,所述根据CPU和GPU的运算能力来确定仿真计算任务量在CPU和GPU上的分配比,具体包含以下步骤:
(1)计算总任务量:
W=GFLOPSCPU·(tCPU+tT)+GFLOPSGPU·tGPU
(2)计算CPU与GPU之间数据传输总量:
(3)计算CPU与GPU之间数据传输的通信开销:
(4)计算分配比:
(5)将R·W的任务量分配给GPU,(1-R)·W的任务量分配给CPU。
7.根据权利要求1所述HPL计算模型仿真方法,其特征在于,所述将对应的任务分别在CPU和GPU上进行仿真计算,具体包含以下步骤:
(1)初始化增广矩阵A|b:根据问题规模初始化相应大小的增广矩阵;
(2)循环分解增广矩阵:基于LU分解法,根据任务量的分配比对增广矩阵进行split,并将split后需要传输到GPU显存上的部分矩阵传输到GPU显存上;
CPU执行cpu_dtrsm()来计算CPU部分的下三角矩阵,GPU执行gpu_dtrsm()来计算GPU部分的下三角矩阵;
GPU将运算完成的结果传输回内存,并同时进行HPL_dgemm()根据任务量的分配比对增广矩阵进行split,将split后需要传输到GPU显存上的部分矩阵传输到GPU显存上;
CPU执行cpu_dgemm()进行CPU部分矩阵乘运算,GPU执行gpu_dgemm()进行GPU部分矩阵乘运算;
若分解尚未结束,在GPU将数据传输回内存的同时与下一轮的HPL_dtrsm()需要的数据并行传输,若分解结束,将运算完成的结果传输回内存。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910583440.7/1.html,转载请声明来源钻瓜专利网。