[发明专利]人机智能交互方法、电子设备及存储介质在审
申请号: | 202211522992.5 | 申请日: | 2022-11-30 |
公开(公告)号: | CN115796165A | 公开(公告)日: | 2023-03-14 |
发明(设计)人: | 苏晓杰;陈光辉;孙少欣;马铁东 | 申请(专利权)人: | 重庆大学 |
主分类号: | G06F40/279 | 分类号: | G06F40/279;G06F40/30;G06F16/36;G06F16/35;G06N3/0464;G06N3/048;G06N3/047;G06N3/084 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 黄宗波 |
地址: | 400044 *** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 人机 智能 交互 方法 电子设备 存储 介质 | ||
1.一种人机智能交互方法,其特征在于,所述方法包括:
基于中文语言模型MacBERT和多层神经网络MLP,构建第一混合深度学习模型,在所述第一混合深度学习模型中,所述MacBERT用于将文本序列嵌入成具有语义信息的词向量,所述MLP用于输出任务结果;
基于中文语言模型MacBERT、双向长短词记忆模型BILSTM、多层神经网络MLP,构建第二混合深度学习模型,在所述第二混合深度学习模型中,所述MacBERT用于将文本序列嵌入成具有语义信息的词向量,所述BILSTM用于根据所述MacBERT输出的词向量得到具有前后语义关系的词向量,所述MLP用于输出任务结果;
利用经过训练后的所述第一混合深度学习模型和所述第二混合深度学习模型,对用户输入的语料进行识别,得到用户的意图和实体;
从预先创建的知识图谱中查找并输出与所述意图和实体对应的结果,以作为人机交互的返回结果。
2.根据权利要求1所述的方法,其特征在于,基于中文语言模型MacBERT和多层神经网络MLP,构建第一混合深度学习模型,包括:
将MacBERT的输出数据,作为所述MLP的输入数据,以构建第一混合深度学习模型;
利用第一训练数据集,对所述第一混合深度学习模型进行训练,得到经过训练的第一混合深度学习模型,其中,所述第一训练数据集中包括按语料意图被划分为M种意图特征类别的多条语料,所述第一训练数据集中的每条语料设置有与意图特征类别对应的语料标注,M为大于1的整数。
3.根据权利要求2所述的方法,其特征在于,所述M种意图特征类别包括以下的至少两种类别:
表征病情诊断的第一意图类别;
表征病因分析的第二意图类别;
表征治疗方案的第三意图类别;
表征就医建议的第四意图类别;
表征指标解读的第五意图类别;
表征疾病表述的第六意图类别;
表征后果表述的第七意图类别;
表征注意事项的第八意图类别;
表征功效作用的第九意图类别;
表征医疗费用的第十意图类别;
表征其他意图的第十一意图类别。
4.根据权利要求1所述的方法,其特征在于,基于中文语言模型MacBERT、双向长短词记忆模型BILSTM、多层神经网络MLP,构建第二混合深度学习模型
将MacBERT的输出数据,作为所述BILSTM的输入数据,并将所述BILSTM是输出数据作为所述MLP的输入数据,以构建第二混合深度学习模型;
利用第二训练数据集,对所述第二混合深度学习模型进行训练,得到经过训练的第二混合深度学习模型,其中,所述第二训练数据集中包括按语料实体被划分为N种实体特征类别的多条语料,所述第二训练数据集中的每条语料设置有与实体特征类别对应的语料标注,N为大于1的整数。
5.根据权利要求4所述的方法,其特征在于,所述N种实体特征类别包括以下的至少两种类别:
表征疾病的第一实体类别;
表征症状的第二实体类别;
表征治愈可能性的第三实体类别;
表征药物的第四实体类别;
表征检查项目的第五实体类别;
表征身体部位的第六实体类别;
表征检查科室的第七实体类别;
表征微生物的第八实体类别;
表征其他实体的第九实体类别。
6.根据权利要求1所述的方法,其特征在于,在利用经过训练后的所述第一混合深度学习模型和所述第二混合深度学习模型,对用户输入的语料进行识别之前,所述方法还包括:
当用户输入的语料为语音数据时,通过预设语音识别算法,将所述语音数据转换为文本数据,以作为输入所述第一混合深度学习模型和所述第二混合深度学习模型的语料。
7.根据权利要求1所述的方法,其特征在于,在从预先创建的知识图谱中查找并输出与所述意图和实体对应的结果之前,方法还包括:
基于预设知识图谱构建规则,按照实体、关系、实体的三元组,构建基于neo4j图数据库的知识图谱。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆大学,未经重庆大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211522992.5/1.html,转载请声明来源钻瓜专利网。