[发明专利]一种视频内容拆条方法及装置在审
申请号: | 201810896708.8 | 申请日: | 2018-08-08 |
公开(公告)号: | CN108965920A | 公开(公告)日: | 2018-12-07 |
发明(设计)人: | 陈长伟;杨晓亮;田丹 | 申请(专利权)人: | 北京未来媒体科技股份有限公司 |
主分类号: | H04N21/234 | 分类号: | H04N21/234;H04N21/44;H04N21/235;H04N21/435 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 王宝筠 |
地址: | 100142 北京市海淀*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频内容 视频 视频识别 数据条目 子模型 对视频内容 结果生成 人工手动 人工资源 视频输入 视听节目 新媒体 申请 发布 | ||
1.一种视频内容拆条方法,其特征在于,包括:
获取待进行内容拆条的视频;
将所述视频输入至预训练的视频内容拆条模型,得到用于表征所述视频的至少一个数据条目;所述视频内容拆条模型由至少一个视频识别子模型构成,不同的视频识别子模型用于识别视频中不同类别的视频内容得到识别结果,所述至少一个数据条目基于各所述视频识别子模型对所述视频的识别结果生成;
所述视频内容拆条模型是以卷积神经网络的至少一个待训练视频识别子模型中,每个待训练视频识别子模型对训练样本的输出结果均趋近于该待训练视频识别子模型对该训练样本的标定输出结果为训练目标,对所述卷积神经网络进行训练得到的。
2.根据权利要求1所述的方法,其特征在于,预训练的视频内容拆条模型接收所述视频,得到用于表征所述视频的至少一个数据条目,包括:
预训练的视频内容拆条模型接收所述视频,对所述视频进行解析,得到播放时间连续的至少一个视频帧;
分别将所述至少一个视频帧输入至所述视频内容拆条模型中的每个视频识别子模型,以得到每个所述视频识别子模型对所述视频的识别结果;
基于所得到的各识别结果,生成用于表征所述视频的至少一个数据条目。
3.根据权利要求1所述的方法,其特征在于,所述视频识别子模型可以为用于对所述视频中的文字进行识别的文字识别模型、用于对所述视频中的语音进行识别的语音识别模型、用于对所述视频中的人脸进行识别的人脸识别模型,或者用于对所述视频中的物体进行识别的物体识别模型。
4.根据权利要求3所述的方法,其特征在于,所述物体识别模型对所述视频的识别结果包括所述视频中出现的物体、场景和人物特写,所述人物特写用于表征人物的特征,所述场景包括用于表征地理位置的第一场景以及用于表征人物动作的第二场景;
所述基于所得到的各识别结果,生成用于表征所述视频的至少一个数据条目,包括:
基于所述物体识别模型对所述视频的识别结果,确定所述视频所属的视频类型,所述视频类型为用于表征所述视频的一个数据条目。
5.根据权利要求3所述的方法,其特征在于,所述基于所得到的各识别结果,生成用于表征所述视频的至少一个数据条目,包括:
从文字识别模型对所述视频的识别结果和语音识别模型对所述视频的识别结果中,提取关键字;
基于所述关键字生成所述视频的标签,所述标签为用于表征所述视频的一个数据条目。
6.根据权利要求1-5任意一项所述的方法,其特征在于,卷积神经网络被训练,得到包括至少一个视频识别子模型的视频内容拆条模型的过程包括:
接收一个训练样本,所述训练样本不同于历史训练样本,所述训练样本为视频训练样本;
对该训练样本进行解析得到播放时间连续的至少一个视频帧;
将所述至少一个视频帧分别输入至所述卷积神经网络中的每个待训练视频识别子模型,得到每个所述待训练视频识别子模型对该至少一个视频帧的识别结果;
确定每个所述待训练视频识别子模型对该至少一个视频帧的识别结果是否均趋近于该待训练样本对应该待训练视频识别子模型的标定输出结果,若是,将当前卷积神经网络确定为视频内容拆条模型;
若否,针对每个目标待训练视频识别子模型,利用该目标待训练视频识别子模型对该至少一个视频帧的识别结果和该待训练样本对该目标待训练视频识别子模型的标定输出结果,反向调节该目标待训练视频识别子模型中的参数,得到调整后的目标待训练识别子模型;若待训练视频识别子模型对该至少一个视频帧的识别结果不趋近于该待训练样本对应该待训练视频识别子模型的标定输出结果,该待训练视频识别子模型为目标待训练视频识别子模型;
返回执行“接收一个训练样本”步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京未来媒体科技股份有限公司,未经北京未来媒体科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810896708.8/1.html,转载请声明来源钻瓜专利网。