[发明专利]物体定位方法和装置有效
申请号: | 201310063037.4 | 申请日: | 2013-02-28 |
公开(公告)号: | CN104021538B | 公开(公告)日: | 2017-05-17 |
发明(设计)人: | 王千;王鑫;范圣印;乔刚 | 申请(专利权)人: | 株式会社理光 |
主分类号: | G06T7/70 | 分类号: | G06T7/70 |
代理公司: | 北京市柳沈律师事务所11105 | 代理人: | 张丽新 |
地址: | 日本*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 物体 定位 方法 装置 | ||
技术领域
本发明总体地涉及图像处理,更具体地涉及基于立体视觉的物体定位方法和装置。
背景技术
近年来,基于视频的人的跟踪定位已成为了计算机视觉领域一个热门的研究课题,这是因为它是许多高层应用如人的动作识别,行为分析与预测的基础。人定位是指检测到人进而得到人在室内或者室外的位置信息,也就是得到人在世界坐标系中的坐标值(x,y,z)的过程。
已经存在一些利用立体摄像机采集的图像来定位跟踪对象的技术,例如,标题为“METHOD AND SYSTEM TO SEGMENT DEPTH IMAGES AND TO DETECT SHAPES IN THREE-DIMENSIONALLY ACQUIRED DATA”的专利文献US8009871B,标题为“SURFACE GENERATION METHOD FROM BOUNDARIES OF STEREO IMAGES”的专利文献US5202928A,Michael Harville在2003年发表的文章"Stereo Person Tracking with Adaptive Plan-View Templates of Height and Occupancy Statistics"等。
基于单个单目摄像机的人的跟踪定位这一研究课题已被广泛开展了多年,但目前,其仍是一个挑战性的技术课题,尤其是当前技术不能很好地适应宽敞且人流量大场景下的多人跟踪问题。造成这一问题的原因主要有:第一,人流量大,场景中出现的人多,势必造成一定的人与人之间的遮挡,这将在一定程度上降低跟踪的准确度;第二,单摄像机的拍摄范围有限,难以覆盖整个需要监视的区域。这样以来,为了克服上述问题,已经逐渐引入和采用基于多个立体双目相机的人的跟踪定位系统。
发明内容
如何利用多个立体相机的深度/视差信息来更有效地检测人、跟踪人和更精确地定位人,是对实际应用非常有意义的课题,可以通过使用融合技术来进行解决。融合,按照其融合对象的不同大致可以分为三类:原始数据集的融合;特征集的融合;以及结果集的融合。
对于多个立体相机诸如双目相机的场景而言,原始数据集的融合,即像素集的融合,网络传输数据量大和处理的数据量大,无法在实际场景中进行实时应用。
本发明关注结果集层面的融合。
专利US7929017 B2提出了一种方法和装置用于立体相机、多相机以及RF和视频的融合。该方法融合单目相机、立体相机的跟踪结果,以及RFID、定位系统和生物识别系统的结果。该融合技术通过对不同传感器信息的噪声和模糊进行严格地不确定性分析后,进行传感器信息的转换。其基于时空约束来融合不同传感器的位置和速度信息。该专利提出的方法使用了贝叶斯方法来融合各类结果,融合目标是跟踪的结果和位置信息。为了增加稳定性,其考虑了时空的约束。
专利US7742620 B2提出了一种采用时空融合来提高目标检测的方法。该发明提出的目标检测方法采用预处理与后处理相结合的方法对传感器发来的数据进行时域上的融合。为了进一步提高目标的检出率以及避免传统恒虚警率检测器存在的缺点,该发明采用了双门限阈值与反向阈值的方法。
本发明的一个目的是希望提供一种物体定位方法和装置,其对多个物体距离较近且存在遮挡的情况具有较强的鲁棒性,能够准确地定位出对象。
根据本发明的实施例,提供了一种物体定位方法,包括:从多个立体相机获得彩色图像和深度图像;利用每个立体相机获得的图像,对物体进行定位;对每个立体相机定位到的每个物体计算复合特征,该复合特征包括物体在统一世界坐标系下的位置信息并且包括物体的可见特征、速度矢量、加速度矢量中的至少一种;基于各个立体相机定位到的各个物体的复合特征,计算不同相机定位到的物体之间的相似度,从而确定不同相机定位到的物体是否属于同一物体;如果确定不同相机定位到的物体属于同一物体,则基于物体对于相机的可见度和物体与相机间距离,融合不同相机关于该同一物体的定位结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于株式会社理光,未经株式会社理光许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310063037.4/2.html,转载请声明来源钻瓜专利网。