[发明专利]一种可分辨多群目标跟踪方法、装置以及存储介质在审
申请号: | 202211100366.7 | 申请日: | 2022-09-09 |
公开(公告)号: | CN115908477A | 公开(公告)日: | 2023-04-04 |
发明(设计)人: | 李刚;李固冲;刘瑜 | 申请(专利权)人: | 清华大学;清华大学深圳国际研究生院 |
主分类号: | G06T7/207 | 分类号: | G06T7/207;G01S13/72;G06V10/762 |
代理公司: | 北京润泽恒知识产权代理有限公司 11319 | 代理人: | 苟冬梅 |
地址: | 100084*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 分辨 目标 跟踪 方法 装置 以及 存储 介质 | ||
1.一种基于领导者与跟随者模型的可分辨多群目标跟踪方法,其特征在于,所述方法包括:
获取当前帧的量测数据;
根据上一帧中多个目标的目标估计状态,将多个目标划分为多个可分辨群目标,并确定每个可分辨群目标中的领导者;
基于LMB滤波器,利用所述当前帧的量测数据对所述多个可分辨群目标进行更新;
根据更新后的LMB密度,估计出当前帧的目标个数和目标状态。
2.根据权利要求1所述的方法,其特征在于,根据上一帧中多个目标的目标估计状态,将多个目标划分为多个可分辨群目标,并确定每个可分辨群目标中的领导者,包括:
根据上一帧中多个目标的目标估计状态,对所述多个目标中的每个目标进行高斯混合表征;
通过一阶矩匹配准则,将所述每个目标的高斯混合表征转化为单高斯分布表征;
根据所述每个目标的单高斯分布表征,确定所述多个目标中任意两个目标之间的距离;
根据所述任意两个目标之间的距离,通过基于密度的聚类算法,确定所述多个可分辨群目标;
在任一可分辨群目标中,利用群中心位置向量与目标间位置向量的关系,估计每个可分辨群目标中的领导者。
3.根据权利要求1所述的方法,其特征在于,基于LMB滤波器,利用所述当前帧的量测数据对所述多个可分辨群目标进行更新,包括:
根据所述上一帧中多个目标的目标估计状态,对所述每个可分辨群目标内的领导者与跟随者进行时间更新;
合并经过时间更新后的所有可分辨群目标以及新生目标信息,其中,所述新生目标信息为当前帧中新出现的目标的信息;
根据所述当前帧的量测数据,对合并后的可分辨多群目标进行量测更新。
4.根据权利要求3所述的方法,其特征在于,根据所述上一帧中多个目标的目标估计状态,对所述每个可分辨群目标内的领导者与跟随者进行时间更新,包括:
确定所述每个可分辨群目标内,领导者的运动状态对应的状态转移方程方程与跟随者的运动状态对应的状态转移方程;
根据所述上一帧的各个目标的目标估计状态,通过所述领导者的运动状态对应的状态转移方程与所述跟随者的运动状态对应的状态转移方程,对所述每个可分辨群目标内的领导者与跟随者进行时间更新。
5.根据权利要求4所述的方法,其特征在于,确定所述每个可分辨群目标内,领导者的运动状态对应的状态转移方程方程与跟随者的运动状态对应的状态转移方程,包括:
利用多变量随机差分方程表征领导者与跟随者各自的运动状态,并确定领导者与跟随者的状态转移方程。
6.根据权利要求5所述的方法,其特征在于,所述领导者的状态转移方程为:
其中,τ为时间间隔。
7.根据权利要求5所述的方法,其特征在于,所述跟随者的状态转移方程为:
其中,τ为时间间隔。
8.根据权利要求1-7任一所述的方法,其特征在于,根据更新后的LMB密度,估计出当前帧的目标个数和目标状态,包括:
根据更新后的LMB密度,确定各个目标的幸存概率;
确定所述幸存概率大于阈值的目标的个数,并输出所述幸存概率大于阈值的目标的状态。
9.一种基于领导者与跟随者模型的可分辨多群目标跟踪装置,其特征在于,所述装置包括:
获取模块,用于获取当前帧的量测数据;
分群模块,用于根据上一帧中多个目标的目标估计状态,将多个目标划分为多个可分辨群目标,并确定每个可分辨群目标中的领导者;
更新模块,用于基于LMB滤波器,利用所述当前帧的量测数据对所述多个可分辨群目标进行更新;
估计模块,用于根据更新后的LMB密度,估计出当前帧的目标个数和目标状态。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的基于领导者与跟随者模型的可分辨多群目标跟踪方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学;清华大学深圳国际研究生院,未经清华大学;清华大学深圳国际研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211100366.7/1.html,转载请声明来源钻瓜专利网。