[发明专利]一种基于深度学习的海面船只视频检测与跟踪方法在审
申请号: | 201711461818.3 | 申请日: | 2017-12-28 |
公开(公告)号: | CN108171752A | 公开(公告)日: | 2018-06-15 |
发明(设计)人: | 王德全;赵世凯;王小勇;陈坚松 | 申请(专利权)人: | 成都阿普奇科技股份有限公司 |
主分类号: | G06T7/73 | 分类号: | G06T7/73;G06T7/33;G06T1/20 |
代理公司: | 重庆中之信知识产权代理事务所(普通合伙) 50213 | 代理人: | 谢毅 |
地址: | 610000 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公布了一种基于深度学习的海面船只视频检测与跟踪方法,(1)卷积模型特征提取:采用深度卷积神经网络自动学取目标船只特征,每个特征层都使用一系列的3x3卷积核去提取特征,浅层的卷积层主要提取细节特征,深层的卷积层主要提取抽象的全局轮廓特征;(2)多尺度全卷积模型目标定位与分类:利用主干卷积网络获取的大量特征,在多尺度卷积层重新整合,构建出尺度递减的目标特征金字塔网络,每一层代表不同大小的目标特征,特征层之间进行融合对比;(3)全连接前后帧目标跟踪:当前帧和前一帧图像分别通过卷积层提取特征后选取出目标附近区域的特征,将这些特征级联并输入全连接层。本发明有效地确保了船只检测与跟踪的实时性和稳定性。 1 | ||
搜索关键词: | 卷积 目标特征 视频检测 提取特征 多尺度 特征层 跟踪 海面 卷积神经网络 船只 金字塔网络 前一帧图像 船只检测 船只特征 附近区域 轮廓特征 模型目标 模型特征 目标跟踪 网络获取 细节特征 卷积核 连接层 实时性 有效地 构建 级联 浅层 整合 递减 主干 尺度 抽象 分类 融合 学习 全局 | ||
(1)快速的卷积模型特征提取:通过主干卷积网络提取目标的特征;采用深度卷积神经网络自动学取目标船只特征,每一个特征层,都使用一系列的3x3卷积核去提取特征,其中,浅层的卷积层主要提取细节特征,深层的卷积层主要提取抽象的全局轮廓特征,而卷积层之间以下采样层连接;
(2)多尺度全卷积模型目标定位与分类:利用主干卷积网络获取的大量特征,在多尺度卷积层重新整合,构建出尺度递减的目标特征金字塔网络,每一层代表不同大小的目标的特征,在这些特征层之间进行融合对比,以确定目标的大小和位置;
(3)全连接前后帧目标跟踪:在当前帧和前一帧图像分别通过卷积层提取特征后,选取出目标附近区域的特征,将这些特征级联并输入全连接层。
2.根据权利要求1所述基于深度学习的海面船只视频检测与跟踪方法,其特征在于,将视频帧进行归一化转化为固定的尺寸作为特征提取模型的输入,快速的卷积特征提取模型采用18层的卷积神经网络结构,由多个连续的卷积层间隔池化层组成。3.根据权利要求2所述基于深度学习的海面船只视频检测与跟踪方法,其特征在于,所述多个连续的卷积层间隔池化层组成结构为:卷积层*2‑池化层‑卷积层*2‑池化层‑卷积层*3‑池化层‑卷积层*3‑池化层‑卷积层*3‑池化层。4.根据权利要求3所述基于深度学习的海面船只视频检测与跟踪方法,其特征在于,卷积层采用3*3的卷积核,以步长1卷积上一层输入数据,然后加上一个偏置b,通过修正线性单元ReLU激活函数将线性变换转换为非线性变换,Xn=g(WTXn‑1+bn),g(x)=ReLU(x)=max(0,x),其中,n代表第几层网络,X为图像特征,W为卷积核权重,g(x)为激活函数。5.根据权利要求4所述基于深度学习的海面船只视频检测与跟踪方法,其特征在于,所述池化层采用2*2卷积,以步长2卷积上一层输入数据,采样方式为最大值采样,每个池化层将输入特征图映射到一个缩小4倍的特征图。6.根据权利要求1—5任一项所述基于深度学习的海面船只视频检测与跟踪方法,其特征在于,将多尺度全卷积模型获取的特征金字塔的每一层作为输出层,设定密度相同的候选框,金字塔顶的候选框对应于原图像中较大的目标框,金字塔底的候选框对应于原图像中较小的目标框。7.根据权利要求6所述基于深度学习的海面船只视频检测与跟踪方法,其特征在于,对所述候选框进行Multi‑taskloss计算,每个ROI输出离散概率分布为:p=(p0,...,pk)和boundingbox回归的位移为该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都阿普奇科技股份有限公司,未经成都阿普奇科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201711461818.3/,转载请声明来源钻瓜专利网。