[发明专利]一种基于视觉目标检测的移动机器人跟随行人方法、系统及介质在审
申请号: | 202210077438.4 | 申请日: | 2022-01-24 |
公开(公告)号: | CN114529579A | 公开(公告)日: | 2022-05-24 |
发明(设计)人: | 戴诗陆;冯介三;王敏;杨辰光 | 申请(专利权)人: | 华南理工大学;佛山纽欣肯智能科技有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/277;G06T7/73 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 李斌 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 视觉 目标 检测 移动 机器人 跟随 行人 方法 系统 介质 | ||
1.基于视觉目标检测的移动机器人跟随行人方法,其特征在于,所述方法包括下述步骤:
改进目标检测算法搭建行人检测模型,对行人目标进行检测得到行人目标检测框的坐标;
改进多目标跟踪算法,对行人目标进行跟踪;
构建非完整移动机器人运动学模型,以及移动机器人与行人之间的角度和距离;
确定角度和距离的约束条件,定义角度误差和距离误差;
基于预设性能控制的方法,设计与障碍物位置有关的预设性能函数,构建误差转换函数;
将转换误差函数引入李雅普诺夫函数,设计基于视觉的跟随避障控制器及速度观测器。
2.根据权利要求1所述的基于视觉目标检测的移动机器人跟随行人方法,其特征在于,所述行人检测模型是采用基于Yolov5改进的目标检测算法搭建而成,在Yolov5主干网络backbone的尾部加入SELayer通道注意力机制层,在head的尾部加入FcaNet频域通道注意力机制层,对行人目标进行实时检测,并获取行人目标检测框的坐标。
3.根据权利要求2所述的基于视觉目标检测的移动机器人跟随行人方法,其特征在于,所述多目标跟踪算法是基于DeepSort算法改进的;DeepSort算法包括检测器、卡尔曼滤波算法及匈牙利匹配;所述检测器采用所述目标检测模型的网络结构;所述卡尔曼滤波算法的线性系统进行UT变换扩展。
4.根据权利要求1所述的基于视觉目标检测的移动机器人跟随行人方法,其特征在于,所述构建非完整移动机器人运动学模型,具体为:
在大地坐标系中,构建非完整移动机器人运动学模型,表示为:
其中,(xf,yf)表示移动机器人在大地坐标系中的位置;ψf为移动机器人在大地坐标系中的航向角;vf和ωf分别为该移动机器人相当于大地坐标系运动时的线速度和角速度;
所述行人检测模型中得到的行人目标检测框的坐标为(up,vp),通过针孔相机模型转换得到相机坐标系下行人的三维坐标根据相机坐标系和大地坐标系的几何关系,得到行人在大地坐标系中的坐标(xp,yp),关系式为:
根据行人在大地坐标系中的位置坐标(xp,yp),计算移动机器人与行人之间的角度θf和距离df:
其中,df表示行人与机器人之间的距离,θf表示行人与机器人之间的角度;为中间参量。
5.根据权利要求4所述的基于视觉目标检测的移动机器人跟随行人方法,其特征在于,所述确定角度和距离的约束条件,定义角度误差和距离误差,具体为:
根据移动机器人的视角约束,确定角度和距离的约束条件:
其中,
定义相应的距离误差edf与角度误差eθf:
edf=df-ddes,f
eθf=θf-θdes,f
其中,ddes,f为设定的机器人与行人之间的期望距离值,θdes,f为设定的机器人与行人之间的期望夹角;
则根据角度和距离的约束条件,距离误差edf与角度误差eθf满足如下关系式:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学;佛山纽欣肯智能科技有限公司,未经华南理工大学;佛山纽欣肯智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210077438.4/1.html,转载请声明来源钻瓜专利网。