[发明专利]一种基于全卷积网络的非限制场景中运动目标快速分割方法有效
申请号: | 201610598992.1 | 申请日: | 2016-07-27 |
公开(公告)号: | CN106296728B | 公开(公告)日: | 2019-05-14 |
发明(设计)人: | 张印辉;何自芬;张春全;伍星;张云生;王森;姜守帅 | 申请(专利权)人: | 昆明理工大学 |
主分类号: | G06T7/215 | 分类号: | G06T7/215 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 650093 云*** | 国省代码: | 云南;53 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明涉及一种基于全卷积网络的非限制场景中运动目标快速分割方法,属于视频对象分割技术领域。本发明首先,对视频进行分帧,利用分帧后的结果制作样本图像的Ground Truth集合S;采用通过PASCAL VOC标准库训练的全卷积神经网络对视频各帧中的目标进行预测,获取图像前景目标的深层特征估计子,据此得到所有帧中目标最大类间似然映射信息,实现对视频帧中的前景和背景的初步预测;然后,通过马尔科夫随机场对前景和背景的深层特征估计子进行精细化,从而实现对非限制场景视频中视频前景运动目标的分割。本发明能够有效地获取运动目标的信息,以实现对运动目标的高效、准确分割,提高视频前景‑背景信息的分析精度。 | ||
搜索关键词: | 一种 基于 卷积 网络 限制 场景 运动 目标 快速 分割 方法 | ||
【主权项】:
1.一种基于全卷积网络的非限制场景中运动目标快速分割方法,其特征在于:首先,对视频进行分帧,利用分帧后的结果制作样本图像的Ground Truth集合;采用通过PASCAL VOC标准库训练的全卷积神经网络对视频各帧中的目标进行预测,获取图像前景目标的深层特征估计子,据此得到所有帧中目标最大类间似然映射信息,实现对视频帧中的前景和背景的初步预测;然后,通过马尔科夫随机场对前景和背景的深层特征估计子进行精细化,从而实现对非限制场景视频中视频前景运动目标的分割;所述方法的具体步骤如下:Step1、对视频进行分帧,利用分帧后的结果制作样本图像的Ground Truth集合,采用通过PASCAL VOC标准库训练的全卷积神经网络对视频各帧中的目标进行预测,获取图像前景目标的深层特征估计子,据此得到所有帧中目标最大类间似然映射信息,将视频前景和背景分别标记为0、1,实现对视频帧中的前景和背景的初步预测;Step2、通过马尔科夫随机场对前景和背景的深层特征估计子进行精细化,建立外观模型和位置模型,融合所有帧中目标最大类间似然映射信息在所有帧中分割目标;Step3、循环步骤Step1至Step2,直至完成视频中的运动目标分割;所述步骤Step1中,建立全卷积网络,获得各自图像帧的最大类间似然映射信息步骤如下:Step1.1、对目标视频进行分帧处理,获取具有运动目标的视频帧,挑选目标的若干幅图像组成特征训练样本集,制作目标图像的Ground Truth集合,共同构成运动目标特征的训练集合;Step1.2、将VGG‑16模型的最后三层,即全连接层用卷积层替换,构成全卷积网络,利用PASCAL VOC标准库训练全卷积网络;Step1.3、将分好的视频帧作为网络输入,利用训练好的全卷积网络对视频帧中的目标进行预测,获取图像前景目标的深层特征估计子;其中,网络层的数据为h×w×d大小的数组,h、w为空间维度,d为图像的色彩通道,对于网络结构第一层,其输入为原始图像,h×w为图像大小,d为图像的色彩通道,对于网络的其它层,其输出为ηij=ξks({Xsi+i,sj+j}0≤i,j≤k),Xij是在指定层(i,j)处的数据向量,k为卷积核大小,s为降采样因子,ξks决定网络层的类型;Step1.4、对全卷积网络得到的特征映射双线性上采样即反卷积对得到的特征映射精炼,在网络结构浅层处减小上采样的步长,得到精炼层的特征映射,将其同网络高层得到的粗略层的特征映射融合得到新的一个特征映射层,再次做上采样得到新的精炼特征映射输出;所述步骤Step2中,将视频帧每一帧过分割为超像素,并为超像素建立外观模型和位置模型,融合所有帧中目标最大类间似然映射信息在所有帧中分割目标步骤如下:Step2.1、将视频帧过分割为超像素集合S,对超像素集合S中每个超像素赋予一个属于{0,1}的标签,分别为前景和背景,建立马尔科夫随机场能量函数对标签做出惩罚,优化标记结果:利用图割法,得到将能量函数最小化的标签其中,Ut为一个一元项,它可以根据第t帧的外观模型估计一个超像素是前景或是背景的可能性,V,W为二元项,它们能够平滑空间和时间邻域,变量i∈v,v={1,2,...,n},λ为一权衡参数;Step2.2、结合内‑外映射利用交互分割法建立外观模型Ut自动估计前景和背景,外观模型包含两个在RGB空间内的混合高斯模型,其中一个为前景,另一个为背景,超像素位于前景和背景中的可能性,为所有超像素建立前景模型和背景模型,前景模型超像素的权重定义为背景模型超像素的权重定义为其中βU为时间上的权重,为超像素属于目标的百分比,反之为超像素不属于目标的百分比;Step2.3、建立位置模型Lt降低背景颜色和前景颜色相似情况下对分割效果的影响,利用公式argmaxcηtp(i,j,c)建立最大类间位置似然,由ηtp(i,j,c)全连接网络预测层在上一个时刻t的输出,判断像素(i,j)处第c类目标的分类似然,结合最大类间位置似然内‑外映射传播法建立位置先验,超像素通过光流传递从第一帧正向传播到最后一帧,超像素帧间传播t+1帧中的位置通过如下公式得到更新:由Φ判断传播质量是否可靠,对不可靠的传递作出惩罚进行降权处理;类似于上述光流从第一帧正向传播到最后一帧的传递过程,再将超像素通过光流从最后一帧反向传播至第一帧,最后将正向传播和反向传播两步归一化,建立位置模型,其中,为连接权重,δ为更新速率,δ∈[0,1],为像素p的光流向量。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于昆明理工大学,未经昆明理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201610598992.1/,转载请声明来源钻瓜专利网。