[发明专利]一种视频处理方法和装置有效
申请号: | 201810618681.6 | 申请日: | 2018-06-15 |
公开(公告)号: | CN110149530B | 公开(公告)日: | 2021-08-24 |
发明(设计)人: | 刘玉杰 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | H04N21/234 | 分类号: | H04N21/234;H04N21/2343;H04N21/235;H04N21/431;H04N21/435;H04N21/44;H04N21/4402;H04N21/488 |
代理公司: | 广州三环专利商标代理有限公司 44202 | 代理人: | 郝传鑫;熊永强 |
地址: | 518057 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 视频 处理 方法 装置 | ||
本发明实施例公开了一种视频处理方法,所述方法包括:播放视频数据,并获取所述视频数据对应的弹幕数据;在关键信息库中获取与所述弹幕数据相匹配的关键字信息,作为目标关键字信息;所述关键信息库中包含用户设置的关键字信息,以及每个关键字信息对应的目标对象的分类识别模型;在所述视频数据的多个视频帧中获取目标视频帧,并基于所述目标关键字信息对应的分类识别模型,识别所述目标关键字信息对应的目标对象在所述目标视频帧中的图像区域,并将识别出的所述图像区域作为目标区域;当播放所述视频数据中的所述目标视频帧时,对所述目标视频帧中的所述目标区域进行动画处理。采用本发明,可以丰富弹幕数据的视觉展示效果。
技术领域
本发明涉及互联网技术领域,尤其涉及一种视频处理方法和装置。
背景技术
用户在通过客户终端或者网页观看视频的过程中,常常开启弹幕,以查看其它用户发表的弹幕。由于部分视频的弹幕数量较大或者弹幕播放速度较快,用户在这些弹幕播放过程中,将无法在该视频播放界面上及时、清楚的辨识出弹幕关键内容(即难以及时捕捉到这些弹幕中的关键字信息),从而降低了弹幕数据的可识别度,以至于降低了弹幕数据的视觉展示效果。
此外,由于在所述视频播放界面上的弹幕,是独立于所播放的视频内容,因此,在该视频播放界面上所显示的弹幕将无法实时反馈当前播放的视频内容,即缺乏该客户终端中的弹幕与所述视频内容之间的相关性,进而降低当前显示的弹幕数据的视觉展示效果。
发明内容
本发明实施例提供一种视频处理方法和装置,可以丰富弹幕数据的视觉展示效果。
本发明一方面提供了一种视频处理方法,包括:
播放视频数据,并获取所述视频数据对应的弹幕数据;
在关键信息库中获取与所述弹幕数据相匹配的关键字信息,作为目标关键字信息;所述关键信息库中包含用户设置的关键字信息,以及每个关键字信息对应的目标对象的分类识别模型;
在所述视频数据的多个视频帧中获取目标视频帧,并基于所述目标关键字信息对应的分类识别模型,识别所述目标关键字信息对应的目标对象在所述目标视频帧中的图像区域,并将识别出的所述图像区域作为目标区域;
当播放所述视频数据中的所述目标视频帧时,对所述目标视频帧中的所述目标区域进行动画处理。
其中,所述在关键信息库中获取与所述弹幕数据相匹配的关键字信息,作为目标关键字信息,包括:
获取关键信息库,并将所述弹幕数据拆分为多个分词数据;
在所述关键信息库中遍历查找与各分词数据匹配的关键字信息;
若查找到与所述各分词数据匹配的关键字信息,则将所述关键字信息作为所述弹幕数据对应的目标关键字信息;
在所述关键信息库中,获取所述目标关键字信息对应的目标对象的分类识别模型。
其中,所述在所述视频数据的多个视频帧中获取目标视频帧,并基于所述目标关键字信息对应的分类识别模型,识别所述目标关键字信息对应的目标对象在所述目标视频帧中的图像区域,并将识别出的所述图像区域作为目标区域,包括:
在所述视频数据的多个视频帧中获取目标视频帧;
将所述目标视频帧划分为多个子区域,并对各子区域进行选择性搜索,并对选择性搜索后的子区域进行合并,得到多个合并区域,并将所述多个子区域和所述多个合并区域均确定为待处理区域;
基于神经网络模型对所述待处理区域进行特征提取,得到与所述待处理区域对应的图像特征;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810618681.6/2.html,转载请声明来源钻瓜专利网。