[发明专利]用于人工智能驱动的自动伴侣的系统和方法在审
申请号: | 201880090572.X | 申请日: | 2018-12-27 |
公开(公告)号: | CN111801730A | 公开(公告)日: | 2020-10-20 |
发明(设计)人: | N·舒克拉;方锐;刘昌松 | 申请(专利权)人: | 得麦股份有限公司 |
主分类号: | G10L15/22 | 分类号: | G10L15/22;G10L25/63;B25J11/00 |
代理公司: | 中国贸促会专利商标事务所有限公司 11038 | 代理人: | 李颖 |
地址: | 美国加*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 人工智能 驱动 自动 伴侣 系统 方法 | ||
1.一种在至少一个机器上实现的方法,该机器包含至少一个处理器、存储器以及能够连接到网络的通信平台,该方法用于自动对话伴侣,其包含:
接收与在对话场景中参与特定话题的对话的用户相关联的多模态输入数据,其中,多模态输入数据捕获来自用户的讯息以及对话场景周边的信息;
分析多模态输入数据,以提取对用户状态以及与对话场景相关联的相关信息进行表征的特征;
基于用户状态和与对话场景相关联的相关信息,生成对话的当前状态,其中,对话的当前状态描绘对话的背景;
基于与特定话题的对话对应的对话树、对话的当前状态以及基于历史对话数据与对话的当前状态学习的效用,确定将要响应于讯息而被传送到用户的响应讯息。
2.权利要求1的方法,其中,多模态输入数据至少包括音频数据、视觉数据、文字数据和触觉数据。
3.权利要求2的方法,其中,分析多模态输入数据以提取特征的步骤包含以下至少一种:
分析音频数据,以识别:
来自用户的讯息的内容,
表示在讯息中传送的情绪的、讯息的特点,以及
对话场景中的音频声音;
分析视觉数据,得到对话场景周边的信息,其包括以下至少一者:
用户的面部表情,
与面部表情相关联的情绪,
用户执行的动作,
对话场景中的一个以上的对象及其空间关系。
4.权利要求3的方法,其中,生成对话的当前状态的步骤包含:
基于来自用户的讯息的内容和对话树,获得对话的语言解析图(Lan-PG);
基于由用户执行的动作和对话树,获得空间-时间-因果解析图(STC-PG);以及
基于Lan-PG、STC-PG和对话场景周边的信息,生成联合解析图(联合-PG)。
5.权利要求1的方法,进一步包含效用的机器学习,其包含:
访问与过去的对话有关的历史对话数据;
基于历史对话数据,经由机器学习,获得效用;
基于对话的当前状态,动态地更新效用。
6.权利要求5的方法,其中,确定响应讯息的步骤包含:
确定与对应于对话的当前状态的对话树中的节点相关联的多个动作;
评估与所述多个动作中的每一个相关联的奖励;以及
基于效用,从所述多个动作中选择作为响应讯息的动作,其中,所选择的动作对应于根据所学习效用的最大效用。
7.权利要求6的方法,其中,通过与所述多个动作相关联的奖励的评估以及关于所述多个动作中每一个的前瞻性未来奖励,递归地学习效用。
8.机器可读的非暂时性介质,其上记录有用于自动对话伴侣的信息,其中,该信息在被机器读取时,使得机器执行:
接收与在对话场景中参与特定话题的对话的用户相关联的多模态输入数据,其中,多模态输入数据捕获来自用户的讯息以及对话场景周边的信息;
分析多模态输入数据,以提取对用户状态以及与对话场景相关联的相关信息进行表征的特征;
基于用户状态和与对话场景相关联的相关信息,生成对话的当前状态,其中,对话的当前状态描绘对话的背景;
基于与特定话题的对话对应的对话树、对话的当前状态以及基于历史对话数据与对话的当前状态学习的效用,确定将要响应于讯息而被传送到用户的响应讯息。
9.权利要求8的介质,其中,多模态输入数据至少包括音频数据、视觉数据、文字数据和触觉数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于得麦股份有限公司,未经得麦股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201880090572.X/1.html,转载请声明来源钻瓜专利网。