[发明专利]一种基于多维要素视频分割的段落关联规则评判方法有效

专利信息
申请号: 201910395119.6 申请日: 2019-05-13
公开(公告)号: CN110097026B 公开(公告)日: 2021-04-27
发明(设计)人: 胡燕祝;田雯嘉 申请(专利权)人: 北京邮电大学
主分类号: G06K9/00 分类号: G06K9/00
代理公司: 暂无信息 代理人: 暂无信息
地址: 100876 *** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明主要提供一种基于多维要素视频分割的段落关联规则评判方法,具体内容包括:步骤一:视频解析;步骤二:场景分割中的关键帧提取;步骤三:基于关键帧的场景分割;步骤四,视频的音频分割;步骤五,视频的语义分割;步骤六:GNN网络的分割视频的段落关联规则评判方法;步骤七:构建关联网络。本发明对同一段视频进行多维分割后,采用了构建段落关联规则的方式对对应的多维要素进行了匹配。与其他视频分割的段落关联规则评判方法相比,本发明结合图像序列中像素在时间域上的变化以及相邻帧之间的相关性对视频在图像维度实现了很好的分割,保留了视频的关键信息,可以提供一种有效的多维要素视频分割的段落关联规则评判方法。
搜索关键词: 一种 基于 多维 要素 视频 分割 段落 关联 规则 评判 方法
【主权项】:
1.本发明主要提供一种基于多维要素视频分割的段落关联规则评判方法,其特征在于:步骤一:视频解析。视频解析的第一步是数据接收,需要对视频做一个解复用的处理,分解为图像轨道、音频轨道、字幕轨道。步骤二:场景分割中的关键帧提取。关键帧提取方法主要分为五类,具体方法如图2所示。(1)基于边界提取关键帧。该方法把每个镜头第一帧和最后一帧或中间帧直接作为关键帧选取出来。这样运算量小,适合于内容活动性小或保持不变的镜头。(2)基于视觉特征提取关键帧。该方法首先选择第一帧作为最近的关键帧,然后,后面的帧依次与其比较视觉特征,这些特征包括颜色、运动、边缘、形状和空间关系等。如果当前帧和最近的关键帧之间的差值超过了一个预定的阈值,那么当前帧就被选为关键帧。(3)基于聚类提取关键帧。这类方法使用了聚类技术,将一个镜头的所有帧进行聚类,然后根据某些准则,比如类别中的帧数,在这些类别中选取关键类别,再在关键类别中选取聚类参数最小的帧作为关键帧。(4)基于多模式提取关键帧。该类方法主要是模仿人类感知能力进行精简视频内容分析,一般是综合视频、音频、文本等。比如,在电影、体育等视频中的场景切换,视频与音频内容往往同时变化,所以就需要用多模式的提取方法,当镜头边界的音频和视频特征同时变化较大时,该镜头边界为新的场景边界。(5)基于压缩域提取关键帧。基于压缩域的方法无需对视频流解压或只需部分解压,直接从MPEG压缩视频流上提取关键帧,降低了计算的复杂性。步骤三:基于关键帧的场景分割。主要包括如下三个方面:(1)基于帧间差分检测。帧间差分法是一种通过对视频图像序列中相邻两帧作差分运算来获得运动目标轮廓的方法,它可以很好地适用于存在多个运动目标和摄像机移动的情况。(2)基于背景差分检测。背景差分法是一种对静止场景进行运动分割的通用方法,它将当前获取的图像帧与背景图像做差分运算,得到目标运动区域的灰度图,对灰度图进行阈值化提取运动区域,而且为避免环境光照变化影响,背景图像根据当前获取图像帧进行更新。具体内容如图3所示。(3)基于光流法检测。光流法利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性,根据上一帧与当前帧之间的对应关系,计算得到相邻帧之间物体的运动信息。(4)分割后的视频,可以被表示为x1,…,xi,其中x表示被分割的视频的时间段,i表示被分割视频的个数。步骤四:视频的音频分割。基于EMD的音频分割方法,具体过程如下:(1)原音频数据序列X(t),确定所有极大值点,并用三次样条插值函数拟合形成原数据的上包络线。(2)找出所有的极小值点,并将所有的极小值点通过三次样条插值函数拟合形成数据的下包络线。(3)上包络线和下包络线的均值记作ml,将原数据序列X(t)减去该平均包络ml,得到一个新的音频数据序列hl,如公式所示:hl=X(t)‑ml(4)对EMD分解后的音频数据进行聚类分割。(5)分割后的音频,可以被表示为y1,…,yj,其中y表示被分割的音频的时间段,j表示被分割音频的个数。步骤五:视频的语义分割。对于段落的语义分割,主要包含如下几个方面:(1)定义语义块。语义块是指将一个句子分割为若干个相对独立的语义单元,长度基于词义之上句义之下;是一种语法、语义、语用关联的预处理手段。各语义块之间非递归、非嵌套、不重叠。(2)句义分割。自然语言处理通常需要分析三个方面:语法,语义和上下文,因此首先进行文本分词及词性标的统计处理工作,进行完词分类后,对其进行快速标注工作,随后对于词进行语义重组,最后在根据定义好的语义块,进行句义分割。(3)分割后的段落,可以被表示为z1,…,zk,其中z表示被分割的音频的时间段,k表示被分割音频的个数。步骤六:GNN网络的分割视频的段落关联规则评判方法。图形神经网络(GNN,Graph Neural Network)主要可以有效地建模系统中对象之间的关系或交互。对于同一段视频,进行上面的场景、声音、段落三个维度上进行分割后,得到了不同时间段的视频,在三个维度分割的视频,并不能完全对齐,会产生交叉的情况,因此本发明采用GNN神经网络,对上述分割后的视频段落的关联性进行评价。t表示每一秒的视频,GNN(t|x),GNN(t|y),GNN(t|z)是指当前在各个维度分割视频段提取的特征向量。步骤七:构建关联网络。构建关联网络主要分为2个步骤。(1)从单个维度出发,根据欧氏距离或者汉明距离,构建各视频段中的网络关联规则,包括节点之间的强度和方向。(2)把三个维度的关联网络复合在一起,形成一个新的有向关联网络。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京邮电大学,未经北京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910395119.6/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top