[发明专利]一种面向无人艇应用的水面目标检测跟踪一体化方法有效
申请号: | 201710213710.6 | 申请日: | 2017-04-01 |
公开(公告)号: | CN106960446B | 公开(公告)日: | 2020-04-24 |
发明(设计)人: | 肖阳;杨健;曹治国;宫凯程 | 申请(专利权)人: | 广东华中科技大学工业技术研究院;华中科技大学;广东省智能机器人研究院 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/90;G06T7/20 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 罗晓林;杨桂洋 |
地址: | 523000 广东省东莞*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 无人 应用 水面 目标 检测 跟踪 一体化 方法 | ||
1.一种面向无人艇应用的水面目标检测跟踪一体化方法,包括以下步骤:
S1,训练目标检测神经网络模型;
S2,目标检测,对输入的图片进行检测,得到该图片中的包含目标的目标框,进而得到目标检测结果,将检测结果放入集合Bd中;
S3,检测当前图片是否为第一帧图片,若是,则转入步骤S4;若不是,则检测目标跟踪结果,将上一帧图片的目标跟踪结果,输入到目标检测神经网络模型中进行检测,保留没有丢失目标的跟踪框,将该跟踪框放入集合Bt中;
S4、精调目标框和跟踪框的大小和位置,对步骤S2中的目标框和步骤S3中的跟踪框进行边缘提取得到边缘图,将该边缘图的最大外接矩形作为精确的目标框和跟踪框;
S5,判断是否出现新目标,对比集合Bd和Bt中的目标框和跟踪框,判断集合Bd中是否发现了新目标,若发现新目标,将该新目标的框加入集合Bt中,舍弃集合Bd中其余的目标框;
S6,目标跟踪,将集合Bt中的跟踪框中的目标作为跟踪目标;
S7,连续跟踪m帧,然后重复步骤2至步骤7,直到最后一帧图片,m的取值为30-50之间。
2.根据权利要求1所述的面向无人艇应用的水面目标检测跟踪一体化方法,其特征在于,所述步骤S1具体包括:
S11,定义神经网络网络误差函数:
其中Lc和Lr分别代表分类误差和回归误差,具体定义如下:
在上述公式中,i表示框的序号;bi表示框里有目标的概率,如果第i个框是正样本则bi等于1,否则等于0;bi*表示第i个框实际的类别;mi表示第i个框的四个坐标;mi*表示第i个框实际的坐标;λ表示分类误差和回归误差的平衡参数;
S12,网络初始化;
S13,训练神经网络,使用反向传播算法,对神经网络的参数进行更新,当测试误差不再变化时,训练停止。
3.根据权利要求2所述的面向无人艇应用的水面目标检测跟踪一体化方法,其特征在于,所述步骤S2具体包括:
S21,图片初始化,对输入的图片初始化处理;
S22,提取图片CNN特征;
S23,获取目标初始位置和类别,得到包含目标的初始目标框;
S24,获取目标精确位置和类别,得到目标框;
S25,剔除虚景,对步骤S24的结果进行非极大值抑制处理,剔除虚景和重复的目标框,得到目标检测最终结果,将该目标检测最终结果放入集合Bd中。
4.根据权利要求3所述的面向无人艇应用的水面目标检测跟踪一体化方法,其特征在于,所述步骤S23具体为,由步骤S22提取的图片的CNN特征构成该图片的CNN特征图,在该CNN特征图上以每个像素为中心,构建9种不同大小的矩形框,将该9种矩形框输入到softmax分类器中进行分类和回归,得到具有初始位置和类别的初始目标框。
5.根据权利要求4所述的面向无人艇应用的水面目标检测跟踪一体化方法,其特征在于,所述步骤S24具体为,将初始目标框归一化至设定大小,再接入2个全连接层,然后送入softmax分类器得到目标框的精确位置和类别。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东华中科技大学工业技术研究院;华中科技大学;广东省智能机器人研究院,未经广东华中科技大学工业技术研究院;华中科技大学;广东省智能机器人研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710213710.6/1.html,转载请声明来源钻瓜专利网。