[发明专利]一种多模态意图识别方法、装置、设备及存储介质在审
申请号: | 202211476158.7 | 申请日: | 2022-11-23 |
公开(公告)号: | CN116343784A | 公开(公告)日: | 2023-06-27 |
发明(设计)人: | 王章定;朱亚杰;王波 | 申请(专利权)人: | 合众新能源汽车股份有限公司 |
主分类号: | G10L15/22 | 分类号: | G10L15/22;G10L15/26;G10L15/16;G06F16/332;G06F16/33;G06F16/35;G06F18/214;G06N3/044;G06N3/0464;G06N3/088 |
代理公司: | 北京中原华和知识产权代理有限责任公司 11019 | 代理人: | 寿宁;张琳 |
地址: | 314500 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 多模态 意图 识别 方法 装置 设备 存储 介质 | ||
1.一种多模态意图识别的方法,用于车辆,其特征在于,包括:
获取用户的原始语音信息;
将获取的原始语音信息转换为文本信息;
基于文本分类模型TextCNN对所述文本信息进行文本特征分类;计算第一交叉熵值;
基于无监督预训练模型wav2vec对所述原始语音信息提取音频特征;基于音频特征进行音频特征分类;计算第二交叉熵值;
抽取文本特征和所述音频特征;拼接抽取的文本和所述音频特征;对拼接获得的结果进行全连接和激活;计算第三交叉熵值;
基于第一交叉熵值、第二交叉熵值和第三交叉熵值的加权运算获得意图识别结果,所述加权运算的权值基于所述文本分类模型TextCNN和所述无监督预训练模型wav2vec的训练获得。
2.根据权利要求1所述的意图识别的方法,其特征在于,将获取的原始语音信息转换为文本信息包括:
将原始语音信息通过无监督预训练模型wav2vec提取音频特征;进行音频特征分类;
基于所述音频特征分类通过自动语音识别asr转换得到文本信息。
3.根据权利要求1所述的意图识别的方法,其特征在于,基于文本分类模型TextCNN对所述文本信息进行文本特征分类;计算第一交叉熵值包括:
通过文本分类模型TextCNN对所述文本信息进行文本特征分类;
基于第一分类函数对分类后的所述文本特征进行分类计算,得到文本特征的分类概率;
基于文本特征的分类概率计算得到第一交叉熵值。
4.根据权利要求3所述的意图识别的方法,其特征在于,基于无监督预训练模型wav2vec对所述原始语音信息提取音频特征;基于音频特征进行音频特征分类;计算第二交叉熵值包括:
基于第二分类函数对分类的音频特征进行分类概率计算,得到音频特征的分类概率;
基于所述音频特征的分类概率计算得到第二交叉熵值。
5.根据权利要求4所述的意图识别的方法,其特征在于,抽取文本特征和所述音频特征;拼接抽取的文本和所述音频特征;对拼接获得的结果进行全连接和激活;计算第三交叉熵值包括:
将所述文本特征的分类概率和音频特征的分类概率进行拼接处理,获取拼接结果概率;
对拼接结果概率依次进行全连接和激活,获得全连接和激活结果;
基于所述全连接和激活结果计算第三交叉熵值。
6.根据权利要求5所述的意图识别的方法,其特征在于,对拼接结果概率依次进行全连接和激活,获得全连接和激活结果以及基于所述全连接和激活结果计算第三交叉熵值之间还包括:
基于第三分类函数对所述全连接和激活结果进行分类计算,得到所述全连接和激活结果的分类概率。
7.根据权利要求3至6任一项所述的意图识别的方法,其特征在于,所述第一分类函数、第二分类函数以及第三分类函数为softmax函数。
8.一种多模态意图识别的装置,其特征在于,该装置包括:
语音获取单元,用于获取用户的原始语音信息;
语文转换单元,用于将获取的原始语音信息转换为文本信息;
第一交叉熵计算单元,用于基于文本分类模型TextCNN对所述文本信息进行文本特征分类;计算第一交叉熵值;
第二交叉熵计算单元,用于基于无监督预训练模型wav2vec对所述原始语音信息提取音频特征;基于音频特征进行音频特征分类;计算第二交叉熵值;
第三交叉熵计算单元,用于抽取文本特征和所述音频特征;拼接抽取的文本和所述音频特征;对拼接获得的结果进行全连接和激活;计算第三交叉熵值;
意图识别结果单元,用于基于第一交叉熵值、第二交叉熵值和第三交叉熵值的加权运算获得意图识别结果,所述加权运算的权值基于所述文本分类模型TextCNN和所述无监督预训练模型wav2vec的训练获得。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于合众新能源汽车股份有限公司,未经合众新能源汽车股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211476158.7/1.html,转载请声明来源钻瓜专利网。