[发明专利]一种面向深度学习训练任务的GPU内存优化方法及系统有效
申请号: | 201910035753.9 | 申请日: | 2019-01-15 |
公开(公告)号: | CN109919310B | 公开(公告)日: | 2021-05-18 |
发明(设计)人: | 刘万涛;郭锦荣;虎嵩林;韩冀中 | 申请(专利权)人: | 中国科学院信息工程研究所 |
主分类号: | G06N3/063 | 分类号: | G06N3/063 |
代理公司: | 北京君尚知识产权代理有限公司 11200 | 代理人: | 邱晓锋 |
地址: | 100093 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明涉及一种面向深度学习训练任务的GPU内存优化方法及系统。该方法包括:(1)设计基本换入换出操作;(2)在训练开始前首先进行静态数据采集;(3)不采取换入换出策略,先训练若干个epoches,在此期间进行动态数据采集;(4)建立换入换出策略的性能模型,并明确GPU计算、内存、PCIe通信三者之间的制约关系;(5)根据性能模型确定最优策略;(6)剩余的epoch采用最优minibatch size及其匹配的换入换出策略继续训练直至结束。本发明解决了超深神经网络模型无法训练或可训练minibatch size太小引起训练效率低的问题,能够充分利用GPU资源提升超深神经网络模型训练效率。 | ||
搜索关键词: | 一种 面向 深度 学习 训练 任务 gpu 内存 优化 方法 系统 | ||
【主权项】:
1.一种面向深度学习训练任务的GPU内存优化方法,其特征在于,包括以下步骤:(1)设计基本换入换出操作,包括换入换出的数据、换入换出的时间;(2)在训练开始前,首先进行静态数据采集,用来刻画待训练网络模型的基本特性;(3)开始训练,不采取换入换出策略,先训练若干个epoches,在此期间进行动态数据采集,用来刻画当前硬件环境的性能;(4)根据采集到的静态数据和动态数据,建立换入换出策略的性能模型,并明确GPU计算、内存、PCIe通信三者之间的制约关系;(5)根据性能模型确定最优策略,包括最优minibatch size及其相匹配的换入换出策略;(6)剩余的epoch采用最优minibatch size及其匹配的换入换出策略继续训练直至结束。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院信息工程研究所,未经中国科学院信息工程研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910035753.9/,转载请声明来源钻瓜专利网。