[发明专利]电子设备、存储介质及基于神经网络的语义意图识别方法有效
申请号: | 201910498793.7 | 申请日: | 2019-06-10 |
公开(公告)号: | CN110276072B | 公开(公告)日: | 2021-07-23 |
发明(设计)人: | 李林峰;黄海荣 | 申请(专利权)人: | 湖北亿咖通科技有限公司 |
主分类号: | G06F40/30 | 分类号: | G06F40/30;G06N3/04;G06K9/62 |
代理公司: | 上海波拓知识产权代理有限公司 31264 | 代理人: | 张媛 |
地址: | 430000 湖北省武汉市武汉经济技术开发*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 电子设备 存储 介质 基于 神经网络 语义 意图 识别 方法 | ||
本申请提供一种电子设备、存储介质及基于神经网络的语义意图识别方法,神经网络获取表示语义意图的第一位长的输入数据,将所述输入数据的第一位长扩展至目标位长,根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据,将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据。本申请能够能够对输入、处理计算的数据进行位长的智能性调整,避免占据大量的内理和存储的空间,可以采用存储空间相对较小的计算机或处理芯片,而不再需要花费昂贵的费用购买大存储空间的计算机或处理芯片,从而有效地降低/控制成本。
技术领域
本申请涉及神经网络计算技术领域,具体涉及一种电子设备、存储介质及基于神经网络的语义意图识别方法。
背景技术
随着智能技术的发展,目前能够实现机器与人类的简单交互,比如汽车领域,用户可以通过语音控制车辆。
其中,在进行语音控制时,用户需要利用自然语言进行信息搜索或指示机器执行特定的操作,这样就要求机器能够识别并获取到自然语言,而且需要准确提取到语义意图。例如,在语音搜索的应用场景中,机器获取用户输入的语音,将用户的语音转换成自然语言,然后提取语义并识别意图。
但是,以中文语音为例,现有技术对语音的语义意图识别,主要采用的是中文分词的识别技术。比如对输入的一个中文语句,首先根据样本词的概率,对中文语句进行分割,然后基于正则表达式(Regular Expression,或规则表达式,简写为regex、regexp或RE)进行语义的机械提取。
此外,现有技术的机器还会使用其所架构的各种神经网络对语义进行识别。对于神经网络而言,神经网络的各种参数(比如权重系数、偏置系数等)是其重要组成部分,这些参数是一些变量,通常是一些浮点值,而变量的值则是由训练数据训练出来,并在推理的时候使用。但是,这些参数的字节一般比较大,即使是小型的神经网络,其参数基本都会超过1Mb(兆字节),在将神经网络架构并存储到机器的过程中,会占据机器大量宝贵的存储空间。而且架构成功后的神经网络在运行过程中,采用这些参数进行计算的数据位长越大,代表占用运行的内存空间也越大。不难理解的是,内存空间的大小是决定机器比如计算机或者具体的处理芯片(integrated circuit,IC,集成电路)的成本的重要因素,因此机器需要采用的内存空间越大,则需要购买越贵的计算机或处理芯片,导致成本增加。
针对现有技术的多方面不足,本申请的发明人经过深入研究,提出一种电子设备、存储介质及基于神经网络的语义意图识别方法。
发明内容
本申请的目的在于,提供一种电子设备、存储介质及基于神经网络的语义意图识别方法,能够对输入、处理计算的数据进行位长的智能性调整,避免占据大量的内存和存储的空间,可以采用存储空间相对较小的计算机或处理芯片,而不再需要花费昂贵的费用购买大存储空间的计算机或处理芯片,从而有效地降低/控制成本。
为解决上述技术问题,本申请提供一种基于神经网络的语义意图识别方法,作为其中一种实施方式,所述基于神经网络的语义意图识别方法包括:
神经网络获取表示语义意图的第一位长的输入数据;
将所述输入数据的第一位长扩展至目标位长;
根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据;
将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据。
作为其中一种实施方式,所述根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据的步骤,具体包括:
所述神经网络采用大于或等于所述目标位长的权重系数和偏置系数对所述目标位长的输入数据进行神经网络计算识别处理,以得到大于或等于所述目标位长的表示语义意图的输出数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖北亿咖通科技有限公司,未经湖北亿咖通科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910498793.7/2.html,转载请声明来源钻瓜专利网。