[发明专利]处理内存访问开销的方法、装置及介质有效
申请号: | 201910989917.1 | 申请日: | 2019-10-17 |
公开(公告)号: | CN110704197B | 公开(公告)日: | 2022-12-09 |
发明(设计)人: | 李寅;何亮亮 | 申请(专利权)人: | 北京小米移动软件有限公司 |
主分类号: | G06F9/50 | 分类号: | G06F9/50;G06N3/04;G06N3/08 |
代理公司: | 北京名华博信知识产权代理有限公司 11453 | 代理人: | 白莹 |
地址: | 100085 北京市海淀区清河*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 处理 内存 访问 开销 方法 装置 介质 | ||
本文公开了一种处理内存访问开销的方法、装置及介质,此方法包括:申请用于进行填补处理的内存;针对输入数据执行深度学习算法;在执行深度学习算法完成后,释放所述用于填补处理的内存。本文中提前预设用于进行填补处理的内存,在执行深度学习算法完成后统一进行释放,减少内存申请和释放的处理过程,节省处理能力。
技术领域
本文涉及多媒体数据处理技术领域,尤其涉及处理内存访问开销的方法、装置及介质。
背景技术
深度学习模型是图像领域人工智能的重要技术,随着智能手机和IoT设备的普及,越来越多的深度学习算法应用于终端侧设备。虽然终端侧设备的计算和存储能力在不断提升,但是受到体积和功耗的限制,资源仍然十分受限。
深度学习算法中的一种操作模式中,对输入数据进行填补(Padding),再进行卷积,以防止边缘部分的数据丢失。
发明内容
为克服相关技术中存在的问题,本文提供处理内存访问开销的方法、装置及介质。
根据本文实施例的第一方面,提供一种处理内存访问开销的方法,应用于深度学习过程,所述方法包括:
申请用于针对深度学习模型中至少一卷积操作进行数值填补操作的内存;
确定所述深度学习模型的输入数据;
使用所述深度学习模型对所述输入数据进行深度学习处理;
释放所述内存。
上述方法还具有以下特点:
所述深度学习模型包括按顺序设置的N个卷积操作,N为大于1的整数;
所述申请用于针对深度学习模型中至少一卷积操作进行数值填补操作的内存,包括:
确定所述深度学习模型中第一个卷积操作的输入数据的尺寸;
根据所述第一个卷积操作的输入数据的尺寸确定所述N个卷积操作的输出数据的尺寸和所述N个卷积操作的输入数据执行数值填补操作后的数据尺寸;
确定所述N个卷积操作的输入数据执行数值填补操作后的数据尺寸中的最大尺寸;
申请N个内存,所述N个内存与所述N个卷积操作一一对应,所述N个内存的容量相同并且均对应于所述最大尺寸;
所述使用所述深度学习模型对所述输入数据进行深度学习处理包括:
执行每次卷积操作前,使用所述卷积操作对应的内存对所述卷积操作的输入数据进行数值填补。
上述方法还具有以下特点:
所述深度学习模型包括按顺序设置的N个卷积操作,N为大于1的整数;
所述申请用于针对深度学习模型中至少一卷积操作进行数值填补操作的内存,包括:
确定所述深度学习模型中第一个卷积操作的输入数据的尺寸;
根据所述第一个卷积操作的输入数据的尺寸确定所述N个卷积操作的输出数据的尺寸和所述N个卷积操作的输入数据执行数值填补操作后的数据尺寸;
根据所述N个卷积操作的输入数据执行数值填补操作后的数据尺寸确定K个卷积操作集合,所述N个卷积操作由所述K个卷积操作集合组成,每个卷积操作集合包含的连续的卷积操作的输出数据的尺寸满足不增大规律;
申请K个内存,所述K个内存与所述K个卷积操作集合一一对应,所述K个内存的容量分别对应于所述K个卷积操作集合中第一个卷积操作的输入数据执行数值填补操作后的数据尺寸,所述K是小于N的整数;
所述使用所述深度学习模型对所述输入数据进行深度学习处理,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京小米移动软件有限公司,未经北京小米移动软件有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910989917.1/2.html,转载请声明来源钻瓜专利网。