[发明专利]一种神经网络模型参数的更新方法有效
申请号: | 202010182990.0 | 申请日: | 2020-03-16 |
公开(公告)号: | CN111459661B | 公开(公告)日: | 2021-08-27 |
发明(设计)人: | 李林峰;黄海荣 | 申请(专利权)人: | 湖北亿咖通科技有限公司 |
主分类号: | G06F9/50 | 分类号: | G06F9/50;G10L15/06;G10L15/16;G06N3/04 |
代理公司: | 北京智汇东方知识产权代理事务所(普通合伙) 11391 | 代理人: | 关艳芬 |
地址: | 430056 湖北省武汉市经济开发区神*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 神经网络 模型 参数 更新 方法 | ||
本发明提供了一种神经网络模型参数的更新方法,应用于客户端。该更新方法包括:获取神经网络模型新参数;将所述神经网络模型新参数存储到保存有所述神经网络模型的当前参数的内存中的可用存储空间;调用保存的所述神经网络模型新参数以更新所述神经网络模型的当前参数。在无文件系统的嵌入式环境中,通过直接将神经网络模型新参数保存到内存中并调用神经网络模型新参数用于神经网络模型识别,而无需重启来重新加载神经网络模型,实现了在不中断识别处理业务的前提下方便快捷地对模型参数进行更新,提高系统可用性,提升用户体验。
技术领域
本发明涉及人工智能算法技术领域,特别是一种神经网络模型参数的更新方法。
背景技术
智能语音交互是目前设备控制的研究热点,正得到越来越广泛的应用。特别是对于汽车车机(车机是车载信息娱乐系统的简称,也可称为车载多媒体信息娱乐系统,车载导航系统等),智能语音交互是重要功能。自然语言处理作为语音交互的核心。基于神经网络的自然语言处理模型,需要比较大的计算力,通常被部署在云端服务器上。以汽车车机为例,汽车车机接收的输入语音通过网络传输到云端,由云端服务器部署的神经网络模型完成推理,再把推理结果下发到汽车车机,从而完成自然语言处理。但是,当汽车行驶至网络信号较差、甚至没有网络的地方时,用户的语音交互请求将得不到正确的反馈,严重影响用户体验。
为了解决这个问题,出现了将基于神经网络模型的自然语言处理模块部署到客户端(例如汽车车机)上的方式,使得能够在客户端上实现自然语言处理,这样,即使在无网络的情况下也能进行语音交互。但是,这种方式面临对神经网络模型进行更新的难题,特别是对于更新频率较高的神经网络模型参数来说,如何实现更新是必须考虑的问题。
一般来说,在Linux、Android等操作系统环境下更新神经网络模型参数,可通过在文件系统中更新参数文件,然后再重新加载神经网络模型即可完成模型参数的更新。但是,由于客户端的计算力和存储空间的限制,其上运行的通常不是Linux、Android等大型操作系统。以汽车车机为例,车机上进行神经网络模型推理的芯片上运行的通常是简单高效的实时操作系统(Real-Time Operating System,RTOS),或者甚至没有操作系统,由于实时操作系统一般都不带文件系统,在这种情况下,就无法通过更新参数文件的方式来实现模型参数的更新。另外,通过更新参数文件后重新加载神经网络模型的方式进行更新,在加载期间会造成自然语言处理业务的中断,一定程度上影响用户体验。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的神经网络模型参数的更新方法。
本发明的一个目的在于提供一种应用于客户端的神经网络模型参数的更新方法,其能够在不中断识别处理业务的前提下实现参数更新,提高系统可用性,提升用户体验。
本发明的一个进一步的目的在于节省客户端的内存占用,从而提高运行效率。
根据本发明实施例的一方面,提供了一种神经网络模型参数的更新方法,应用于客户端,所述更新方法包括:
获取神经网络模型新参数;
将所述神经网络模型新参数存储到保存有所述神经网络模型的当前参数的内存中的可用存储空间;调用保存的所述神经网络模型新参数以更新所述神经网络模型的当前参数。
可选地,所述调用保存的所述神经网络模型新参数以更新所述神经网络模型的当前参数,包括:
将指向所述神经网络模型的当前参数所在内存中的存储地址的第一参数指针切换至所述神经网络模型新参数所在内存中的存储空间所在地址;
调用所述第一参数指针以读取所述神经网络模型新参数。
可选地,所述更新方法还包括:
获取所述神经网络模型的预定义的测试样本;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖北亿咖通科技有限公司,未经湖北亿咖通科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010182990.0/2.html,转载请声明来源钻瓜专利网。