[发明专利]一种基于深度学习的字幕叠加截图的实现方法有效
申请号: | 201810181581.1 | 申请日: | 2018-03-05 |
公开(公告)号: | CN108347643B | 公开(公告)日: | 2020-09-15 |
发明(设计)人: | 王炜;谢超平;陈晓军;罗天;杨益红;罗明利 | 申请(专利权)人: | 成都索贝数码科技股份有限公司 |
主分类号: | H04N21/431 | 分类号: | H04N21/431;H04N21/435;H04N21/488;H04N21/845 |
代理公司: | 成都弘毅天承知识产权代理有限公司 51230 | 代理人: | 李龙 |
地址: | 610041 四*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 字幕 叠加 截图 实现 方法 | ||
1.一种基于深度学习的字幕叠加截图的实现方法,其特征在于:包括以下步骤:
步骤1:在视频上选择字幕叠加截图的视频区间;
步骤2:在所述视频区间的每一帧图像上定位并剪裁出字幕;
步骤3:对所有字幕进行分段并抽取每段字幕中的关键帧;
步骤4:对所述关键帧进行相似度计算,利用计算结果进行对比去重,得到最终字幕;
步骤5:将视频区间的首帧画面与最终字幕依次进行拼接,得到字幕叠加截图;
所述步骤4具体为:
S41:对相邻关键帧进行相似度计算,得到第一相似度;
S42:利用k-means算法对相邻关键帧进行对比,得到第二相似度;
S43:利用第一相似度和第二相似度判断相邻关键帧是否相似,若相似,则进行去重操作,只保留相邻关键帧中的其中一帧;反之,两帧均保留;
所述步骤S42具体为:
S421:将亮度等级按相邻原则分为k个色组,利用k-means算法对关键帧进行聚类,得到每个关键帧中k个色组的像素点数目,其中关键帧中数目最接近的色组为主色组;
S422:依次提取每个关键帧中主色组的像素点形成集合,该集合即为纯净度较高的字幕;
S423:利用相邻帧的像素点集合进行比对,得到第二相似度。
2.根据权利要求1所述的一种基于深度学习的字幕叠加截图的实现方法,其特征在于:所述步骤1具体为:在视频上选择入点作为所述视频区间的起始帧,选择出点作为所述视频区间的结束帧。
3.根据权利要求1所述的一种基于深度学习的字幕叠加截图的实现方法,其特征在于:所述步骤2具体为:
S21:构建卷积神经网络并利用所述视频区间的每一帧图像进行训练,得到所述视频区间所有帧图像上字幕最顶端和最低端的坐标参数;
S22:利用所述坐标参数得到字幕的最优坐标参数;
S23:利用所述最优坐标参数剪裁出视频区间每一帧图像上的字幕。
4.根据权利要求1所述的一种基于深度学习的字幕叠加截图的实现方法,其特征在于:所述步骤3具体为:
S31:利用转场技术对所有字幕依次进行转场识别,标注转场帧位置;
S32:利用转场帧对字幕进行初分段;
S33:从每一段字幕中抽取一帧字幕作为该段字幕的关键帧。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都索贝数码科技股份有限公司,未经成都索贝数码科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810181581.1/1.html,转载请声明来源钻瓜专利网。