[发明专利]一种高实时性机器视觉运动分析方法有效
申请号: | 201610056555.7 | 申请日: | 2016-01-27 |
公开(公告)号: | CN105741320B | 公开(公告)日: | 2021-01-01 |
发明(设计)人: | 魏彤;金砺耀;周富强;贾文渊;张琳;袁磊 | 申请(专利权)人: | 北京航空航天大学 |
主分类号: | G06T7/292 | 分类号: | G06T7/292;G06T7/223 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100191*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 实时 机器 视觉 运动 分析 方法 | ||
1.一种高实时性机器视觉运动分析方法,其特征在于,该方法包括下列步骤:
步骤(1)、在实时采集双目摄像机图像的基础上,采用SURF方法提取并匹配当前帧左右图像特征点,得到左右图像匹配点对集合;
步骤(2)、对前后帧左图特征点进行跟踪,得到前后帧跟踪点对集合,关联当前帧与前一帧左右图像匹配点对集合,得到前后帧跟踪匹配点对集合;
步骤(3)、计算所有跟踪匹配点对三维坐标,在此基础上通过奇异值分解方法计算运动参数旋转矩阵Rc,平移矢量Tc,对于每一个跟踪匹配点对通过运动参数Rc,Tc都能够计算得到一个跟踪匹配点对误差E,误差定义为E=(Pc-RcPp-Tc)2,其中Pc,Pp分别代表当前帧和前一帧跟踪匹配点对的三维坐标,计算跟踪匹配点对误差E的均值μ和方差σ,剔除跟踪匹配点对误差大于(μ+3σ)的前后帧跟踪匹配点对,得到有效跟踪匹配点对集合;
步骤(4)、在计算有效跟踪匹配点对三维坐标的基础上,再一次采用奇异值分解方法计算得到经优化的运动参数。
2.根据权利要求1所述的高实时性机器视觉运动分析方法,其特征在于:所述的步骤(1)中采用SURF方法提取特征点并计算特征点描述子,在右图中找到与左图特征点描述子向量距离最小和次小的特征点分别称为最近邻与次近邻,以上称为初步匹配;再通过比例约束,对称性约束以及极线约束消除初步匹配中存在的误匹配,最终得到较为精确的左右图匹配点对集合。
3.根据权利要求1所述的高实时性机器视觉运动分析方法,其特征在于:所述的步骤(2)中对当前帧的特征点在前一帧找到其最近邻与次近邻,再通过比例约束和对称性约束消除初步跟踪中存在的误跟踪,得到较为精确的前后帧左图跟踪点对集合,结合步骤(1)中得到的当前帧及前一帧的左右图匹配点对集合,分别在前一帧和当前帧中找到左图跟踪点对在右图的匹配点,得到一个前后帧跟踪匹配点对,通过遍历跟踪点对集合最终能够得到跟踪匹配点对集合。
4.根据权利要求1所述的高实时性机器视觉运动分析方法,其特征在于:所述的步骤(4)中在计算有效跟踪匹配点对三维坐标的基础上,再一次采用奇异值分解方法计算得到经优化的运动参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610056555.7/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种现浇砼空心板
- 下一篇:一种对象数量可控的图像分割方法