[发明专利]一种图形处理器资源的分配方法、装置、电子设备及存储介质有效
申请号: | 201911331048.X | 申请日: | 2019-12-20 |
公开(公告)号: | CN111176841B | 公开(公告)日: | 2023-08-11 |
发明(设计)人: | 舒承椿 | 申请(专利权)人: | 北京达佳互联信息技术有限公司 |
主分类号: | G06F9/50 | 分类号: | G06F9/50;G06T1/20;G06T1/40;G06N3/08 |
代理公司: | 北京润泽恒知识产权代理有限公司 11319 | 代理人: | 莎日娜 |
地址: | 100085 北京市海淀*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 图形 处理器 资源 分配 方法 装置 电子设备 存储 介质 | ||
本公开关于一种图形处理器资源的分配方法、装置、电子设备及存储介质,该方法包括:基于目标深度学习模型的模型变量的属性信息,对模型变量进行排序;将排序后的模型变量划分为多个子模型变量组;计算子模型变量组中的各个模型变量在各个图形处理器中的放置参数;根据多个子模型变量组中各个模型变量在各个图形处理器中的放置参数,确定目标深度学习模型的模型变量在各个图形处理器中的放置参数;当该模型变量在图形处理器中的放置参数为预设放置参数时,将该模型变量分配至图形处理器中。可见,通过本公开实施例提供的技术方案,合理地将深度学习模型的模型变量分配到不同的图形处理器中,以提高深度学习模型的训练速度及训练效率。
技术领域
本申请涉及计算机技术领域,特别是涉及一种图形处理器资源的分配方法、装置、电子设备及存储介质。
背景技术
深度学习模型通常采用多层神经网络架构,每层神经网络架构中具有大量的模型变量,即深度学习模型具有大量模型变量。在深度学习模型训练的过程中,深度学习模型的模型变量可以放置在不同的设备上。例如,可以放置在不同的图形处理器中。
深度学习模型的模型变量的放置方法,直接影响深度学习模型的训练速度及训练效率。因此,如何合理地将深度学习模型的模型变量放置于不同的图形处理器中,以提高深度学习模型的训练速度及训练效率,是一个亟待解决的问题。
发明内容
为了合理地将深度学习模型的模型变量放置于不同的图形处理器中,以提高深度学习模型的训练速度及训练效率,本公开提供了一种图形处理器资源的分配方法、装置、电子设备及存储介质,本公开的技术方案如下:
根据本公开实施例的第一方面,提供了一种图形处理器资源的分配方法,包括:
基于目标深度学习模型的模型变量的属性信息,对所述模型变量进行排序,所述属性信息包括:所述模型变量的容量和所述模型变量所需要消耗的时间;
将排序后的模型变量划分为多个子模型变量组,每一子模型变量组中模型变量的数量小于预设数量;
对于每一子模型变量组,计算所述子模型变量组中的各个模型变量在各个图形处理器中的放置参数,以使得各个图形处理器对应的模型变量的总容量之间的差值小于第一预设差值,且各个图形处理器对应的模型变量所需要消耗的时间之间的差值小于第二预设差值;
根据所述多个子模型变量组中各个模型变量在各个图形处理器中的放置参数,确定所述目标深度学习模型的模型变量在各个图形处理器中的放置参数;
对于所述目标深度学习模型的任一模型变量,当该模型变量在所述图形处理器中的放置参数为预设放置参数时,将该模型变量分配至所述图形处理器中。
可选的,所述基于目标深度学习模型的模型变量的属性信息,对所述模型变量进行排序,包括:
对于目标深度学习模型的每一模型变量,计算该模型变量所需要消耗的时间与该模型变量的容量的比值;
按照各个比值由大到小或者由小到大的顺序,对所述目标深度学习模型的模型变量进行排序。
可选的,所述将排序后的模型变量划分为多个子模型变量组,包括:
获取预设时间内求解模型变量的放置参数的第一数量,以及图形处理器的第二数量;
将所述第一数量与所述第二数量作商,得到第三数量,并将所述第三数量作为所述预设数量;
基于所述预设数量,将排序后的模型变量划分为多个子模型变量组。
可选的,所述根据所述多个子模型变量组中各个模型变量在各个图形处理器中的放置参数,确定所述目标深度学习模型的模型变量在各个图形处理器中的放置参数,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京达佳互联信息技术有限公司,未经北京达佳互联信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911331048.X/2.html,转载请声明来源钻瓜专利网。