[发明专利]基于CUDA的深度时空信息融合的目标跟踪方法及系统在审
申请号: | 201810453563.4 | 申请日: | 2018-05-14 |
公开(公告)号: | CN108664935A | 公开(公告)日: | 2018-10-16 |
发明(设计)人: | 许志明;瞿文政;潘志宏;倪伟传;刘少江;万智萍 | 申请(专利权)人: | 中山大学新华学院 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 北京华仁联合知识产权代理有限公司 11588 | 代理人: | 苏雪雪 |
地址: | 510520 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 时空信息融合 控制平台 匹配模板 目标跟踪 移动目标 图像帧 目标跟踪系统 图像采集装置 后一帧图像 前一图像帧 跟踪系统 获取图像 加速处理 时空联系 移动事件 重新定义 跟踪 运算 噪声 过滤 传送 检测 | ||
1.基于CUDA的深度时空信息融合的目标跟踪方法,其特征在于,包括以下步骤:
通过图像采集装置获取图像帧,以相邻的两个图像帧中前一图像帧为匹配模板并传送至控制平台;
通过基于CUDA的控制平台对匹配模板和后一帧图像进行检测,获取移动目标;
控制平台对移动目标采用深度时空信息融合进行识别跟踪。
2.根据权利要求1所述的基于CUDA的深度时空信息融合的目标跟踪方法,其特征在于,所述基于CUDA的控制平台对匹配模板和后一帧图像进行检测,获取移动目标,具体包括:对匹配模板和后一帧图像上的移动目标构成的像素进行检测并分簇,计算每个簇中心点位置及每个簇中各像素点到簇中心点的距离均值;对每个簇进行标识。
3.根据权利要求2所述的基于CUDA的深度时空信息融合的目标跟踪方法,其特征在于,所述计算每个簇中心点位置及每个簇中各像素点得到簇中心点的距离均值,具体为:
设簇j(j∈N)有m个像素点,像素点xi(i=1,…m)的重量为g(xi),建立有关xi的函数w(cj|xi),w(cj|xi)表示xi以cj作为簇中心所构成的像素点集群;
计算该簇中心点cj的位置:
计算簇j的像素点与中心像素点cj的距离均值
4.根据权利要求1所述的基于CUDA的深度时空信息融合的目标跟踪方法,其特征在于,所述控制平台对移动目标采用深度时空信息融合进行识别跟踪,具体为:
通过CUDA对匹配模板采用反卷积系统建立时空信息模型,对后一帧图像采用卷积计算置信图,实现对移动目标的识别跟踪。
5.根据权利要求4所述的基于CUDA的深度时空信息融合的目标跟踪方法,其特征在于,所述通过CUDA所述对匹配模板采用反卷积系统建立时空信息模型,对后一帧图像采用卷积计算置信图;具体为:
首先,定义目标的特征信息集Ω,主要采用目标的外形及位置信息,得到:
Ω={l(x,y)=(I(x,y),(x,y))|(x,y)∈Ψ};
(x,y)表示该目标对象在图像中的位置信息,I(x,y)表示目标灰度值,Ψ表示目标与周围环境相关的上下文区域;
其次,根据特征信息集,采用贝叶斯概率的方法进行目标定位,估计置信图函数:
P(l(x,y))=∑l(x,y)∈ΩH((x,y)-(x,y)*)P(l(x,y)|o);
通过置信图函数建立起帧间的相关性联系;
其中,P(l(x,y)|o)表示上下文先验概率,H((x,y)-(x,y)*)表示帧间目标位置之间的相对距离与方向函数;
置信图函数结合当前帧目标的特征信息,得到时空信息模型:
再利用傅里叶变换进行卷积运算,求得:
而下一帧的目标位置通过置信图的极大值进行确定:
最后采用比例更新方案来对当前帧目标的尺寸进行修正:
m表示用于修正的帧数。
6.根据权利要求1所述的基于CUDA的深度时空信息融合的目标跟踪方法,其特征在于,所述控制平台采用基于GPU+ARM架构的Jetson人工智能计算模块,所述图像采集装置采用型号为RER-1MP2CAM002-V90的双目摄像头。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学新华学院,未经中山大学新华学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810453563.4/1.html,转载请声明来源钻瓜专利网。