[发明专利]视频台词提取方法、装置及存储介质有效
申请号: | 201710431004.9 | 申请日: | 2017-06-09 |
公开(公告)号: | CN107241616B | 公开(公告)日: | 2018-10-26 |
发明(设计)人: | 陈姿 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | H04N21/233 | 分类号: | H04N21/233;H04N21/234;H04N21/845;G10L15/26;G06F17/30 |
代理公司: | 北京德琦知识产权代理有限公司 11018 | 代理人: | 郭曼;王琦 |
地址: | 518057 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频 台词 提取 方法 装置 存储 介质 | ||
1.一种视频台词提取方法,其特征在于,包括:
接收客户端发送的针对当前播放的视频的台词获取请求,该台词获取请求中包括所述视频的标识、所述视频中一个或多个角色的对白时间段及角色标识;
从所述视频的标识对应的视频数据流中获得音频数据;
根据所述一个或多个角色的对白时间段,从所述音频数据中获取每个角色的训练语音样本并将其与对应角色的角色标识相关联;
从所述音频数据中提取按时间排序的多个语音数据,对于每一个语音数据执行如下操作:
从每个角色的训练语音样本中确定该语音数据对应的训练语音样本;及
将该语音数据转换为台词文本,将所述台词文本与所述语音数据对应的训练语音样本关联的角色标识相关联;及
将每一个语音数据对应的台词文本及其关联的角色标识按照所述语音数据的排序保存在台词文件中,将所述台词文件发送给所述客户端。
2.根据权利要求1所述的方法,其中,所述从每个角色的训练语音样本中确定该语音数据对应的训练语音样本包括:
根据所述每个角色的训练语音样本,确定每个角色的语音识别模型;
根据所述语音数据及每一个角色的语音识别模型,确定该语音数据对应的训练语音样本。
3.根据权利要求2所述的方法,其中,所述每一个角色的语音识别模型包括模型特征参数;
其中,所述根据所述语音数据及每一个角色的语音识别模型,确定该语音数据对应的训练语音样本包括:
根据所述语音数据,确定语音数据特征参数;
计算所述语音数据特征参数与每一个角色的语音识别模型的模型特征参数之间的失真距离;
将失真距离最小的语音识别模型对应的训练语音样本确定为所述语音数据对应的训练语音样本。
4.根据权利要求2所述的方法,其中,所述根据所述每个角色的训练语音样本,确定每个角色的语音识别模型包括:
根据每个角色的训练语音样本,确定训练语音样本的训练语音特征参数;
根据所述训练语音特征参数,确定每个角色的语音识别模型的模型参数,从而获得语音识别模型。
5.根据权利要求1所述的方法,其中,所述将所述台词文本与所述语音数据对应的训练语音样本关联的角色标识相关联包括:
将所述台词文本对应的训练语音样本关联的角色标识添加到所述台词文本中;
其中,所述将每一个语音数据对应的台词文本及其关联的角色标识按照所述语音数据的排序保存在台词文件中包括:将包含其所对应的角色的角色标识的每一个语音数据对应的台词文本按所述排序保存在所述台词文件中。
6.一种视频台词提取方法,其特征在于,包括:
响应于当前播放的视频的台词获取操作,确定所述视频中一个或多个角色的对白时间段及角色标识;
向服务器发送台词获取请求,该台词获取请求中包括所述视频的标识、所述确定的所述视频中一个或多个角色的对白时间段及角色标识,以使服务器根据所述视频的标识获取音频数据,根据所述一个或多个角色的对白时间段从所述音频数据中获取每个角色的训练语音样本,并将其与对应角色的角色标识相关联,从所述音频数据中提取按时间排序的多个语音数据,根据所述每个角色的训练语音样本,从每个角色的训练语音样本中确定各语音数据对应的训练语音样本,根据与训练语音样本关联的角色标识确定所述多个语音数据中每个语音数据对应的角色标识;将每一个语音数据转换为台词文本,将每一个语音数据对应的台词文本及其对应的角色标识按照所述语音数据的排序保存在台词文件中;
接收服务器发送的台词文件。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710431004.9/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种耐铁铲水性不粘涂料及其制备方法
- 下一篇:一种物料包装装置