[发明专利]一种直播互动方法及装置在审
申请号: | 202011458910.6 | 申请日: | 2020-12-11 |
公开(公告)号: | CN114630135A | 公开(公告)日: | 2022-06-14 |
发明(设计)人: | 南天骄 | 申请(专利权)人: | 北京字跳网络技术有限公司 |
主分类号: | H04N21/2187 | 分类号: | H04N21/2187;H04N21/233;H04N21/2343;H04N21/235;H04N21/239;H04N21/437;H04N21/4788;G10L13/02;G10L15/18;G10L15/22;G10L15/26;G06F16/33;G06F16/78 |
代理公司: | 北京开阳星知识产权代理有限公司 11710 | 代理人: | 祝乐芳 |
地址: | 100190 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 直播 互动 方法 装置 | ||
本发明实施例提供了一种直播互动方法及装置,涉及人机交互技术领域。该方法包括:接收终端设备发送的互动信息,所述互动信息为用户在虚拟对象的直播间输入的互动信息;根据所述互动信息获取反馈数据,所述反馈数据包括所述虚拟对象的面部表情数据和/或所述虚拟对象的肢体动作数据;基于所述反馈数据生成直播视频流;向终端设备发送所述直播视频流。本发明实施例用于解决虚拟直播时无法与观众进行实时互动的问题。
技术领域
本发明涉及人机交互技术领域,尤其涉及一种直播互动方法及装置。
背景技术
近年来,随着流媒体技术的进步以及网络带宽的飞速增长,视频业务日趋火热,各种直播节目已逐渐应用于人们生活的方方面面。
观看直播时进行实时互动已成为一种潮流趋势。在传统直播方式中,主播侧和观众侧均为实时在线的用户,观众侧用户可以在观看主播侧用户实时生成的视频的过程中输入互动信息,主播侧用户则能够查看观众侧用户输入的互动信息,并对互动信息进行反馈。然而,随着直播类别的不断丰富,直播已不再局限于真人直播,而是可以基于人工智能(Artificial Intelligence,AI)技术生成虚拟主播,并基于虚拟主播进行虚拟直播。目前,虚拟直播时虚拟主播均是按照预设定的流程和场景进行直播,无法与观众进行实时互动。
发明内容
有鉴于此,本发明提供了一种直播互动方法及装置,用于解决虚拟直播时无法与观众进行实时互动的问题。
为了实现上述目的,本发明实施例提供技术方案如下:
第一方面,本发明的实施例提供一种直播互动方法,包括:
接收终端设备发送的互动信息,所述互动信息为用户在虚拟对象的直播间输入的互动信息;
根据所述互动信息获取反馈数据,所述反馈数据包括所述虚拟对象的面部表情数据和/或所述虚拟对象的肢体动作数据;
基于所述反馈数据生成直播视频流;
向终端设备发送所述直播视频流。
作为本发明实施例一种可选的实施方式,所述根据所述互动信息获取反馈数据,包括:
解析所述互动信息获取情绪标签,所述情绪标签用于表征对所述互动信息进行反馈时所述虚拟对象的情绪;
基于第一对应关系和所述情绪标签获取所述面部表情数据和/或基于第二对应关系和所述情绪标签获取所述肢体动作数据;
其中,所述第一对应关系包括各情绪标签与所述虚拟对象的面部表情数据的对应关系,所述第二对应关系包括各情绪标签与所述虚拟对象的肢体动作数据的对应关系。
作为本发明实施例一种可选的实施方式,所述根据所述互动信息获取反馈数据,包括:
根据所述互动信息和第一反馈模型获取所述面部表情数据和/或根据所述互动信息和第二反馈模型获取所述肢体动作数据;
其中,所述第一反馈模型为基于样本互动信息和与所述样本互动信息对应的面部表情数据对第一算法模型进行训练获取的模型,所述第二反馈模型为基于样本互动信息和与所述样本互动信息对应的肢体动作数据对第二算法模型进行训练获取的模型。
作为本发明实施例一种可选的实施方式,所述方法还包括:
根据所述互动信息获取用于对所述互动信息进行回复的回复文本;
基于所述回复文本和所述虚拟对象的音色生成所述直播视频流的音频数据。
作为本发明实施例一种可选的实施方式,所述根据所述互动信息获取用于对所述互动信息进行回复的回复文本,包括:
获取所述互动信息的语义;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京字跳网络技术有限公司,未经北京字跳网络技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011458910.6/2.html,转载请声明来源钻瓜专利网。