[发明专利]一种直播互动方法及装置在审
申请号: | 202011458910.6 | 申请日: | 2020-12-11 |
公开(公告)号: | CN114630135A | 公开(公告)日: | 2022-06-14 |
发明(设计)人: | 南天骄 | 申请(专利权)人: | 北京字跳网络技术有限公司 |
主分类号: | H04N21/2187 | 分类号: | H04N21/2187;H04N21/233;H04N21/2343;H04N21/235;H04N21/239;H04N21/437;H04N21/4788;G10L13/02;G10L15/18;G10L15/22;G10L15/26;G06F16/33;G06F16/78 |
代理公司: | 北京开阳星知识产权代理有限公司 11710 | 代理人: | 祝乐芳 |
地址: | 100190 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 直播 互动 方法 装置 | ||
1.一种直播互动方法,其特征在于,包括:
接收终端设备发送的互动信息,所述互动信息为用户在虚拟对象的直播间输入的互动信息;
根据所述互动信息获取反馈数据,所述反馈数据包括:所述虚拟对象的面部表情数据和/或所述虚拟对象的肢体动作数据;
基于所述反馈数据生成直播视频流;
向终端设备发送所述直播视频流。
2.根据权利要求1所述的方法,其特征在于,所述根据所述互动信息获取反馈数据,包括:
解析所述互动信息获取情绪标签,所述情绪标签用于表征对所述互动信息进行反馈时所述虚拟对象的情绪;
基于第一对应关系和所述情绪标签获取所述面部表情数据和/或基于第二对应关系和所述情绪标签获取所述肢体动作数据;
其中,所述第一对应关系包括各情绪标签与所述虚拟对象的面部表情数据的对应关系,所述第二对应关系包括各情绪标签与所述虚拟对象的肢体动作数据的对应关系。
3.根据权利要求1所述的方法,其特征在于,所述根据所述互动信息获取反馈数据,包括:
根据所述互动信息和第一反馈模型获取所述面部表情数据和/或根据所述互动信息和第二反馈模型获取所述肢体动作数据;
其中,所述第一反馈模型为基于样本互动信息和与所述样本互动信息对应的面部表情数据对第一算法模型进行训练获取的模型,所述第二反馈模型为基于样本互动信息和与所述样本互动信息对应的肢体动作数据对第二算法模型进行训练获取的模型。
4.根据权利要求1-3所述的方法,其特征在于,所述方法还包括:
根据所述互动信息获取用于对所述互动信息进行回复的回复文本;
基于所述回复文本和所述虚拟对象的音色生成所述直播视频流的音频数据。
5.根据权利要求4所述的方法,其特征在于,所述根据所述互动信息获取用于对所述互动信息进行回复的回复文本,包括:
获取所述互动信息的语义;
基于第一回复文本库、第二回复文本库以及所述互动信息的语义获取所述回复文本;
其中,所述第一回复文本库包括至少一个语义对应的回复文本,所述第二回复文本库包括各语义对应的回复文本。
6.根据权利要求5所述的方法,其特征在于,所述第一回复文本库中各回复文本与所述虚拟对象的匹配度大于或等于所述第二回复文本库中各回复文本与所述虚拟角色的匹配度;所述基于第三对应关系和所述互动信息的语义获取所述回复文本,包括:
判断所述第一回复文本库中是否包含所述互动信息的语义对应的回复文本;
若是,则基于所述第一回复文本库和所述互动信息的语义获取所述回复文本;
若否,则基于所述第二回复文本库和所述互动信息的语义获取所述回复文本。
7.根据权利要求6所述的方法,其特征在于,在基于第一回复文本库、第二回复文本库以及所述互动信息的语义获取所述回复文本之前,所述方法还包括:
接收用户基于所述虚拟对象的性格设定输入的至少一个语义对应的回复文本;
根据用户输入的所述至少一个语义对应的回复文本;
基于大数据获取各个语义类别对应的回复文本;
根据基于大数据获取回复文本生成所述第二回复文本库。
8.根据权利要求4所述的方法,其特征在于,所述方法还包括:
向所述终端设备发送所述回复文本。
9.根据权利要求4所述的方法,其特征在于,所述方法还包括:
根据所述回复文本对应的语音获取所述虚拟对象的口型数据;
所述基于所述反馈数据生成直播视频流,包括:
根据所述反馈数据和所述口型数据生成所述直播视频流。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京字跳网络技术有限公司,未经北京字跳网络技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011458910.6/1.html,转载请声明来源钻瓜专利网。