[发明专利]基于加权融合的行人空间位置估计方法、装置和机器人在审
申请号: | 202011570414.X | 申请日: | 2020-12-26 |
公开(公告)号: | CN112613422A | 公开(公告)日: | 2021-04-06 |
发明(设计)人: | 秦豪;赵明 | 申请(专利权)人: | 上海有个机器人有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06K9/62 |
代理公司: | 北京天盾知识产权代理有限公司 11421 | 代理人: | 梁秀秀 |
地址: | 200120 上海市浦*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 加权 融合 行人 空间 位置 估计 方法 装置 机器人 | ||
1.一种基于加权融合的行人空间位置估计方法,其特征在于,包括以下步骤:
步骤1,采集实时场景图像,并基于预设目标检测算法对所述实时场景图像中的目标行人进行方框标记,并生成方框坐标;
步骤2,根据所述方框坐标获取实时场景图像中目标行人的至少两个身体部位分别对应的图像坐标;
步骤3,将所述至少两个身体部位分别对应的图像坐标转换为机器人坐标系下的空间坐标;
步骤4,采用二次加权融合策略对至少两个所述空间坐标进行融合,生成目标行人相对机器人的准确位置。
2.根据权利要求1所述基于加权融合的行人空间位置估计方法,其特征在于,所述根据方框坐标获取实时场景图像中目标行人的至少两个身体部位分别对应的图像坐标具体包括以下步骤:
获取目标行人的方框坐标(x1,y1,x2,y2),所述(x1,y1)和所述(x2,y2)分别为方框左上角坐标和方框右下角坐标;
根据所述方框坐标计算实时场景图像中目标行人头顶对应的第一图像坐标以及目标行人脚底对应的第二图像坐标,其中第一图像坐标为第二图像坐标为
3.根据权利要求2所述基于加权融合的行人空间位置估计方法,其特征在于,步骤3中,采用第一预设公式将所述第一图像坐标和所述第二图像坐标分别转换为机器人坐标系下的第一空间坐标和第二空间坐标,所述第一预设公式为:
其中,u,v为目标行人的图像坐标,K11、K12、K13、K22、K23、K24、K32和K33为机器人相机矩阵的参数值,Y为图像坐标(u,v)对应目标点的高度,Z、X为图像坐标(u,v)对应目标点在机器人坐标系下的纵坐标和水平坐标。
4.根据权利要求2或3所述基于加权融合的行人空间位置估计方法,其特征在于,步骤4中,采用第二预设公式对所述第一空间坐标和所述第二空间坐标进行二次加权融合,所述第二预设公式为:
其中,X1、Z1为第一空间坐标,X0、Z0为第二空间坐标,Zf为纵坐标融合结果,Xf为横坐标融合结果。
5.根据权利要求4所述基于加权融合的行人空间位置估计方法,其特征在于,所述预设目标检测算法包括FasterRCNN算法、YOLO算法以及SSD算法中的一个或多个。
6.一种基于加权融合的行人空间位置估计装置,其特征在于,包括目标检测模块、获取模块、坐标转换模块和融合模块,
所述目标检测模块用于采集实时场景图像,并基于预设目标检测算法对所述实时场景图像中的目标行人进行方框标记,并生成方框坐标;
所述获取模块用于根据所述方框坐标获取实时场景图像中目标行人的至少两个身体部位分别对应的图像坐标;
所述坐标转换模块用于将所述至少两个身体部位分别对应的图像坐标转换为机器人坐标系下的空间坐标;
所述融合模块用于采用二次加权融合策略对至少两个所述空间坐标进行融合,生成目标行人相对机器人的准确位置。
7.根据权利要求6所述基于加权融合的行人空间位置估计装置,其特征在于,所述获取模块包括:
获取单元,用于获取目标行人的方框坐标(x1,y1,x2,y2),所述(x1,y1)和所述(x2,y2)分别为方框左上角坐标和方框右下角坐标;
计算单元,用于根据所述方框坐标计算实时场景图像中目标行人头顶对应的第一图像坐标以及目标行人脚底对应的第二图像坐标,其中第一图像坐标为第二图像坐标为
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海有个机器人有限公司,未经上海有个机器人有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011570414.X/1.html,转载请声明来源钻瓜专利网。
- 上一篇:人脸图片降维特征分析比对方法
- 下一篇:一种座位可折叠放置式电动巡逻警车