[发明专利]目标跟踪方法及装置有效
申请号: | 201711230941.4 | 申请日: | 2017-11-29 |
公开(公告)号: | CN107993253B | 公开(公告)日: | 2020-04-24 |
发明(设计)人: | 何彬全 | 申请(专利权)人: | 天津聚飞创新科技有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246 |
代理公司: | 北京超凡志成知识产权代理事务所(普通合伙) 11371 | 代理人: | 王术兰 |
地址: | 300450 天津市滨海新区生态城*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标 跟踪 方法 装置 | ||
1.一种目标跟踪方法,其特征在于,所述方法包括:
获取鱼眼摄像装置的第一视场角数据;所述第一视场角数据包括所述鱼眼摄像装置的焦距信息和畸变信息;
获取鱼眼摄像装置采集的第一图像;
根据所述第一视场角数据对所述第一图像进行矫正和渲染,得到第一场景图像;
响应在所述第一场景图像中选取跟踪目标的操作,获取所述跟踪目标的第一目标位置;
获取鱼眼摄像装置采集得到的第一图像的后一帧图像作为第二图像;
根据所述第二图像和所述第一图像得到所述鱼眼摄像装置的偏移数据;根据所述第二图像和所述第一图像得到所述鱼眼摄像装置的偏移数据的步骤,包括:
获取所述第二图像的第三位置信息;
求取第一位置信息与所述第三位置信息之间的旋转矩阵作为偏移数据;
根据所述偏移数据和所述第一视场角数据,得到第二视场角数据;
根据所述第二视场角数据对所述第二图像进行矫正和渲染,得到第二场景图像;
根据所述第一目标位置和所述偏移数据得到所述跟踪目标在所述第二场景图像中的第二目标位置。
2.根据权利要求1所述的目标跟踪方法,其特征在于,根据所第一视场角数据所述第一图像进行矫正和渲染,得到第一场景图像的步骤,包括:
获取所述第一图像的第一位置信息和第一像素信息;
根据所述第一视场角数据对所述第一位置信息进行矫正,得到第二位置信息;
根据所述第一像素信息和所述第一视场角数据对所述第二位置信息进行渲染,得到第一场景图像。
3.根据权利要求2所述的目标跟踪方法,其特征在于,根据所述偏移数据与所述第一视场角数据,得到第二视场角数据的步骤,包括:
将所述偏移数据的各个分量分别与所述第一视场角数据中与之对应的各个分量相加,得到第二视场角数据。
4.根据权利要求3所述的目标跟踪方法,其特征在于,根据所述第二视场角数据渲染所述第二图像,得到第二场景图像的步骤,包括:
获取所述第二图像的第二像素信息;
根据所述第三位置信息和所述第二视场角数据计算得到第四位置信息;
根据所述第二像素信息和所述第二视场角数据对所述第四位置信息进行渲染,得到第二场景图像。
5.根据权利要求4所述的目标跟踪方法,其特征在于,根据所述第一目标位置和所述偏移数据得到所述跟踪目标在所述第二场景图像中的第二目标位置的步骤,包括:
求取所述第一目标位置与所述偏移数据之积,得到第二目标位置。
6.一种目标跟踪装置,其特征在于,所述装置包括:
获取第一数据模块,用于获取鱼眼摄像装置的第一视场角数据;所述第一视场角数据包括所述鱼眼摄像装置的焦距信息和畸变信息;
获取第一图像模块,用于获取鱼眼摄像装置采集的第一图像;
生成第一场景图像模块,用于根据所述第一视场角数据对所述第一图像进行矫正和渲染,得到第一场景图像;
获取跟踪目标模块,用于响应在所述第一场景图像中选取跟踪目标的操作,获取所述跟踪目标的第一目标位置;
获取第二图像模块,用于获取鱼眼摄像装置采集得到的第一图像的后一帧图像作为第二图像;
获取偏移数据模块,用于根据所述第二图像和所述第一图像得到所述鱼眼摄像装置的偏移数据;所述获取偏移数据模块包括:
获取第三信息单元,用于获取所述第二图像的第三位置信息;
求取偏移数据单元,用于求取第一位置信息与所述第三位置信息之间的旋转矩阵作为偏移数据;获取第二数据模块,用于根据所述偏移数据和所述第一视场角数据,得到第二视场角数据;
生成第二场景图像模块,用于根据所述第二视场角数据对所述第二图像进行矫正和渲染,得到第二场景图像;
跟踪模块,用于根据所述第一目标位置和所述偏移数据得到所述跟踪目标在所述第二场景图像中的第二目标位置。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津聚飞创新科技有限公司,未经天津聚飞创新科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711230941.4/1.html,转载请声明来源钻瓜专利网。
- 上一篇:用户跟踪系统、方法及装置
- 下一篇:基于关联帧差分法的运动目标检测方法