[发明专利]基于可穿戴视觉的机器人视觉跟踪控制系统及控制方法有效
申请号: | 202011229307.0 | 申请日: | 2020-11-06 |
公开(公告)号: | CN112405530B | 公开(公告)日: | 2022-01-11 |
发明(设计)人: | 纪鹏;马凤英;张慧;张芳芳;王斌鹏;曹茂永 | 申请(专利权)人: | 齐鲁工业大学 |
主分类号: | B25J9/16 | 分类号: | B25J9/16 |
代理公司: | 济南圣达知识产权代理有限公司 37221 | 代理人: | 董雪 |
地址: | 250353 山东*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 穿戴 视觉 机器人 跟踪 控制系统 控制 方法 | ||
1.一种基于可穿戴视觉的机器人视觉跟踪控制系统,其特征在于,包括:
主端可穿戴遥操作控制装置,被配置为用于通过手势向从端机器人远程发送控制指令、接收从端机器人采集的数据,并执行手势识别算法和目标跟踪算法;
所述目标跟踪算法设计为一种级联集成跟踪器,具体过程包括:
步骤1、将含有初始跟踪区域的图像x由分辨率低到分辨率高切割为R级栅格状图像组[x1,…,xr,…,xR],每一级栅格状图像均包含若干子图像且每一级栅格状图像中的子图像均是由对当前帧图像按照其宽度和高度等比例分割而来;
步骤2、对R级栅格状图像组[x1,…,xr,…,xR]按照分辨率由低到高的顺序,计算第r级图像xr中每一幅子图像包含的跟踪区域面积占每幅子图像面积的比例P,如果P超过预设值,则将该子图像的标签定义为正样本否则定义为负样本其中r=1,...,R;
步骤3、给第r级图像xr中的每一幅子图像赋予一个权重并且将权重初始化其中,Nr表示第r级图像xr中子图像的个数;
步骤4、针对R级图像组[x1,…,xr,…,xR]中的每一级图像均设计一个强分类器Hr,R个强分类器可组成一个级联集成跟踪器H;每个强分类器由Tr个弱分类器组成;根据弱分类器对每一级图像的分类误差,确定每一个弱分类器的权重,同时更新每一级图像的每一幅子图像的权重;
步骤5、对于新的监控图像x+1,使用级联集成跟踪器H对监控图像x+1进行目标跟踪区域提取;
步骤5.1、将新的监控图像x+1切割为R级栅格状图像组[(x+1)1,…,(x+1)r,…,(x+1)R];
步骤5.2、对于新的目标跟踪区域,按照步骤2的方法对R级栅格状图像组[(x+1)1,…,(x+1)r,…,(x+1)R]按照从低分辨率到高分辨率的顺序,重新定义每级图像的每一幅的子图像的标签为正样本或负样本;
步骤5.3、对第r级图像的Tr个弱分类器按照其权重大小进行排序,去掉权重最低的Kr个弱分类器,然后重新增加Kr个新的弱分类器;
步骤5.4、重新给第r级图像(x+1)r中的每一幅子图像的权重初始化为重新给第r级图像(x+1)r设计一个强分类器Hr,并重新设计一个级联集成跟踪器H;其中,Nr表示第r级图像xr中子图像的个数;
从端机器人,被配置为接收控制指令,并根据所述控制指令执行相应的动作,并向主端可穿戴遥操作控制装置返回采集到的数据;
所述主端可穿戴遥操作控制装置包括可穿戴摄像头和头戴显示模块,分别用于采集手势图像和显示从端机器人采集到的数据以及手势控制指令的运动轨迹;
可穿戴摄像头用于采集操作员的手势图像,并根据手势的运动轨迹来实现对侦察图像中可疑待跟踪目标的选取;通过可疑待跟踪目标区域的中心与侦察图像的中心之间的偏差,控制从端机器人始终瞄准目标。
2.如权利要求1所述的一种基于可穿戴视觉的机器人视觉跟踪控制系统,其特征在于,所述主端可穿戴遥操作控制装置还包括:遥操作控制器,以及与所述遥操作控制器连接的主端无线通信设备。
3.如权利要求1所述的一种基于可穿戴视觉的机器人视觉跟踪控制系统,其特征在于,所述从端机器人包括:移动机器人本体、车载控制器,以及分别与车载控制器连接的从端无线通信设备、多自由度机械臂和侦察摄像头;侦察摄像头安装在多自由度机械臂末端用于采集侦察数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于齐鲁工业大学,未经齐鲁工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011229307.0/1.html,转载请声明来源钻瓜专利网。