[发明专利]基于深度神经网络的场景自动切换的人机多轮对话方法有效
申请号: | 201810028692.9 | 申请日: | 2018-01-12 |
公开(公告)号: | CN108376144B | 公开(公告)日: | 2021-10-12 |
发明(设计)人: | 武星;杜智康 | 申请(专利权)人: | 上海大学 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G06K9/62;G06K9/72;G06N3/04 |
代理公司: | 上海上大专利事务所(普通合伙) 31205 | 代理人: | 陆聪明 |
地址: | 200444*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 神经网络 场景 自动 切换 人机 轮对 方法 | ||
本发明提出一种基于深度神经网络的场景自动切换的人机多轮对话方法,本方法的操作步骤是:(1)建立多轮对话问答上下文表示;(2)建立问答上下文场景聚类与场景上下文表示;(3)问题场景自动识别及应答自动生成;(4)场景与场景上下文自动更新。本发明将问答的文字表示向量化,有效且方便地保存问答的上下文信息;在对话过程中有效地抓住场景信息以及场景下的问答上下文内容;结合所匹配场景下的问答上下文信息,自动地生成合理的答复,此方法充分利用了上下文内容,且相对于传统的直接从问答库中匹配答案更为灵活有效。
技术领域
本发明涉及计算机人工智能领域,尤其涉及一种基于深度神经网络的场景自动切换的人机多轮对话方法。
背景技术
人机对话系统作为一个非常热门且具有极大前景的应用,正逐渐被运用到许多领域。人机对话系统依托语音识别以及自然语言理解等相关技术,旨在以语音交互的形式为用户提供各类服务,如咨询、导引、日常聊天等,在未来将直接改变现有的服务提供方式。
人机对话系统能否充分理解用户的语言,需要有强大的上下文感知能力。上下文感知技术,不仅需要能够抓住当前对话的重要信息,还需要对之前的对话做一定的记忆。近年来,依托深度神经网络,上下文感知技术取得了一定的进展。机器人与人的对话是一个时序过程,人机对话系统除了要理解当前正在进行的对话,还需要对之前的聊天记录有一定的理解能力。即,机器人在与人的对话过程中,需要以之前的聊天内容作为上下文依据,然后再结合当前的聊天内容的上下文,做出合理相应。
然而,目前市面上的对话系统,使用简单的问答库匹配机制,大多数只能提供简单的对话以及服务,对于长时间对话却无能为力。人类在长时间的相互交流过程中,会一直记忆之前聊天涉及的内容,在多轮次的对话过程中,由于存在之前的聊天背景,因此能够保持相当高的连贯性。然而,人机对话系统由于没有良好的记录之前聊天信息的机制,在与人进行多轮交互过程中,往往会有转移话题场景、答非所问甚至无法应答等现象的发生。因此,多轮对话是当下亟待解决的重大问题。
发明内容
本发明的目的是针对现有人机对话系统的不足,提供一种基于深度神经网络的场景自动切换的人机多轮对话方法。本方法可以记录人机对话过程中的上下文信息,对于每一个问题,系统自动地识别每一轮对话的场景信息,并根据特定场景信息进行应答。充分利用深度循环神经网络的长短期记忆机制,以及场景识别的方法,以完成聊天机器人多轮对话以及场景自动切换的功能。
为达到发明的目的,本发明的构思是:
为了有效地记录上下文内容,提出一种问答上下文表示的训练方法,对于每一轮问答,训练其上下文表示,问答的上下文表示即一轮问答包含的重要信息。此外,多轮次的对话中会涉及多个不同的对话场景,对话过程是多个场景相互切换的过程,为了让系统能够准确地检测到场景的切换,提出对话自动场景识别的方法,可以在对话场景切换时,自动地从上下文中匹配合适的场景,根据场景中的内容进行应答。
根据上述发明构思,本发明采用下述技术方案:
一种基于深度神经网络的场景自动切换的人机多轮对话方法,操作步骤如下:
a)构建多轮对话问答上下文表示:使用向量进行问题上下文表示;
b)构建问答上下文场景聚类与场景上下文表示:使用聚类的方法自动划分场景,并训练场景上下文向量;
c)问题场景自动识别及应答自动生成:自动的识别问题的所属场景,使用语言模型自动生成应答;
d)场景与场景上下文自动更新:将新生成的问题添加匹配到的场景中,若未匹配到则生成新的场景。
所述步骤a)构建多轮对话问答上下文表示具体为:问答上下文表示依托问答知识库为基础支持,问答知识库即多个一问一答存储的数据库;问答上下文表示使用深度循环神经网络将一问一答的文本转换为问答的上下文向量表示。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海大学,未经上海大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810028692.9/2.html,转载请声明来源钻瓜专利网。