[发明专利]内存分配方法、装置及电子设备有效
申请号: | 202011480605.7 | 申请日: | 2020-12-15 |
公开(公告)号: | CN112669852B | 公开(公告)日: | 2023-01-31 |
发明(设计)人: | 田超;贾磊 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
主分类号: | G10L15/28 | 分类号: | G10L15/28;G10L15/16;G10L25/30;G06N3/08 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 韩海花 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 内存 分配 方法 装置 电子设备 | ||
本申请公开了内存分配方法、装置及电子设备,涉及计算机技术领域,具体涉及语音技术和深度学习等人工智能技术领域。具体实现方案为:接收多帧语音数据;将多帧语音数据输入至神经网络模型,其中,神经网络模型在处理多帧语音数据时申请多个数据张量,其中,多个数据张量共用共享内存。本申请实施例的内存分配方法,可以有效地减小内存开销,同时可以保证内存和计算的平衡。
技术领域
本申请涉及计算机技术领域,具体涉及语音技术和深度学习等人工智能技术领域,尤其涉及一种内存分配方法、装置及电子设备。
背景技术
人工智能这几年来迅猛发展,而深度学习和神经网络正是人工智能发展的基础。由于神经网络往往层数较多且张量大小较大,会消耗芯片较多内存。并且,近年来把神经网络部署到嵌入式设备上的需求越来越强烈。因此对内存分配的优化至关重要。
发明内容
本申请提供一种内存分配方法、装置及电子设备。
根据本申请的一方面,提供了一种内存分配方法,包括:
接收多帧语音数据;
将所述多帧语音数据输入至所述神经网络模型,其中,所述神经网络模型在处理所述多帧语音数据时申请多个数据张量,其中,所述多个数据张量共用共享内存。
根据本申请的另一方面,提供了一种内存分配装置,包括:
接收模块,用于接收多帧语音数据;
输入模块,用于将所述多帧语音数据输入至所述神经网络模型,其中,所述神经网络模型在处理所述多帧语音数据时申请多个数据张量,其中,所述多个数据张量共用共享内存。
根据本申请的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述一方面实施例所述的内存分配方法。
根据本申请另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其上存储有计算机程序,所述计算机指令用于使所述计算机执行上述一方面实施例所述的内存分配方法。
根据本申请的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现上述一方面实施例所述的内存分配方法。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请实施例提供的一种内存分配方法的流程示意图;
图2为本申请实施例提供的另一种内存分配方法的流程示意图;
图3为本申请实施例提供的另一种内存分配方法的流程示意图;
图4为本申请实施例提供的一种内存分配装置的结构示意图;以及
图5为根据本申请实施例的内存分配方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
下面参考附图描述本申请实施例的内存分配方法、装置及电子设备。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011480605.7/2.html,转载请声明来源钻瓜专利网。
- 上一篇:应急开锁方法、终端设备、服务器及系统
- 下一篇:一种火箭软着陆制导方法